• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 62
  • 27
  • 6
  • 1
  • Tagged with
  • 94
  • 53
  • 15
  • 13
  • 13
  • 12
  • 9
  • 8
  • 8
  • 7
  • 7
  • 7
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Sur le chemin de l'équivalence : Stratégies de traduction de textes économiques

Mattsson, Anna Gunilla January 2020 (has links)
The focus of this paper has been to study the strategies that can be applied to translation of economic texts from French to Swedish. The study has been carried out on two journalistic texts written by the Swiss journalist Julie Zaugg. It includes a presentation of the characteristic traits of the economic genre as to terminology, semantic fields and collocational chains in combination with a presentation of the author’s personal style. The intention was to study how to combine different strategies in order to obtain a result as close to equivalence as possible.
42

La notion de l’équivalence : Les stratégies de traduction des textes scientifiques de l’UE destinés au grand public

Bodén Barré, Nina January 2023 (has links)
Dans ce mémoire nous nous sommes intéressée à la traduction au niveau européen et comment la notion d’équivalence est traitée dans les textes scientifiques destinés au grand public dans la traduction du français au suédois. Est-ce que c’est une équivalence plutôt « mot à mot », ou desens, ou un équilibre entre les deux. Le document qui a servi de base pour cette étude est le ”Pacte Vert pour l’Europe” publié en 2021. L’analyse se fait en trois parties en s’appuyant principalement sur les 7 stratégies de Svane. D’abord nous avons analysé le contenu, le corps du texte, ensuite les titres, car ils jouent un rôle essentiel dans cette brochure informative et enfin, à quel degré la mise en pages impacte la traduction, car dans toutes les langues le format doit rester identique. Nous pouvons constater, à la suite de cette analyse, que le plus important c’est de transmettre le même message et qu’il n’est pas nécessaire de rester fidèle aux mots mais au sens. Cela donne une certaine liberté aux traducteurs mais il y a néanmoins d’autres contraintes comme le respect du lexique d’UE, le travail concernant les titres et de la mise en page. / This essay studies the translation in the European Union, more specifically the notion of equivalence and how it is respected in scientific documents written for the general public and translated from French to Swedish. Is the translation focused on word-for-word or on the meaning or is it a balance between the two of them? The study is based on the brochure “The Green Deal” published in 2021. The analysis is conducted mainly by referring to Svane’s 7 strategies, first by studying the text and its content, then the titles, as they play an essential role in this brochure, and finally the layout, in what proportion it influences the translation as the format should be the same in all languages. We can see from the study that what counts the most, is that the documents communicate the same message even though the translation might not strictly follow the original text. This provides the translators with a certain freedom, but they face other constraints such as the EU terminology, the titles, and the layout.
43

Outils de calcul quantique tolérant aux fautes

Duclos-Cianci, Guillaume January 2015 (has links)
Le développement de qubits quantiques robustes représente un défi technologique de taille. Malgré plus d'une décennie de progrès et de percées, nous sommes toujours à la recherche du candidat idéal. La difficulté réside dans la nécessité de respecter une panoplie de critères stricts: on doit pouvoir préparer et mesurer les qubits rapidement et de manière fiable, préserver leur état pour de longs temps, appliquer avec précision un continuum de transformations, les coupler les uns aux autres, en entasser des milliers, voire des millions sur un seul dispositif, etc. Parallèlement à ces recherches, un autre groupe de scientifiques travaillent plutôt à l'élaboration de l'architecture permettant d'opérer ces qubits. Cette architecture inclut une couche logicielle de base dont l'étude constitue le domaine du calcul tolérant aux fautes: en encodant l'information dans des qubits logiques à l'aide des qubits physiques disponibles, il est possible d'obtenir un dispositif quantique dont les propriétés effectives sont supérieures à celles des composantes physiques sous-jacentes. En contrepartie, une surcharge doit être payée. Celle-ci peut être interprétée comme une forme de redondance dans l'information. De plus, les portes logiques applicables aux qubits encodés sont souvent trop limitées pour être utiles. La recherche dans ce domaine vise souvent à limiter la surcharge et à étendre l'ensemble des opérations applicables. Cette thèse présente les travaux que j'ai publiés avec mes collaborateurs durant mes études de doctorat. Ceux-ci touchent deux aspects importants du calcul tolérant aux fautes: l'élaboration de protocoles de calcul universel et la conception et l'étude d'algorithmes de décodage de codes topologiques stabilisateurs. Concernant l'élaboration de protocoles de calcul universel, j'ai développé avec l'aide de Krysta Svore chez Microsoft Research une nouvelle famille d'états ressources (Chapitre 2). Celle-ci permet, par l'injection d'états, d'effectuer une opération unitaire arbitraire à un qubit à un coût plus faible que les méthodes existant à ce moment. Plus tard, j'ai poursuivi ces travaux avec David Poulin pour élaborer une autre famille d'états ressources qui diminuent encore davantage les coûts de compilation de diverses portes unitaires à un qubit (Chapitre 3). Finalement, Jonas Anderson, David Poulin et moi avons montré comment il est possible de passer de manière tolérante aux fautes d'un encodage à un autre (Chapitre 4). Cette approche est qualitativement différente, car elle fournit un ensemble universel de portes sans passer par l'injection d'états. Durant mon doctorat, j'ai aussi généralisé de plusieurs manières la méthode de décodage par renormalisation du code topologique de Kitaev que j'ai développée au cours de ma maîtrise. Tout d'abord, j'ai collaboré avec Héctor Bombin et David Poulin dans le but de montrer que tous les codes topologiques stabilisateurs invariants sous translation sont équivalents, c'est-à-dire qu'ils appartiennent à la même phase topologique (Chapitre 5). Ce résultat m'a aussi permis d'adapter mon décodeur aux codes topologiques de couleurs stabilisateurs et à sous-systèmes. Puis, je l'ai adapté à une généralisation du code topologique de Kitaev sur des qudits (Chapitre 6). Ensuite, je l'ai généralisé au cas tolérant aux fautes, où les erreurs dans les mesures du syndrome sont prises en compte (Chapitre 7). Finalement, je l'ai appliqué à un nouveau code élaboré par Sergey Bravyi, le code de surface à sous-systèmes (Chapitre 8).
44

Contribution à la statistique des diffusions. Estimation semiparamétrique et efficacité au second ordre.<br />Agrégation et réduction de dimension pour le modèle de régression.

Dalalyan, Arnak 22 November 2007 (has links) (PDF)
Ce texte constitue une synthèse de mes travaux de recherche menés depuis 2000 en statistique mathématique. Ces travaux s'articulent autour de 4 thèmes: la statistique non paramétrique pour les processus de diffusion, efficacité au second ordre pour l'estimation semiparamétrique, agrégation par des poids exponentiels et réduction de dimension pour la régression non paramétrique. <br />Le premier chapitre contient une description générale des résultats obtenus en les replaçant dans un contexte historique et en présentant les motivations qui nous ont animées pour étudier ces problèmes. J'y décris également de façon informelle les idées clés des démonstrations. <br /><br />Au second chapitre, je présente les définitions principales nécessaires pour énoncer de façon rigoureuse les résultats les plus importants. Ce chapitre contient également une discussion plus formelle permettant de mettre en lumière certains aspects théoriques et pratiques de nos résultats.
45

L'écrit électronique

Senécal, François 08 1900 (has links)
Les technologies de l’information entraînent de profondes transformations dans nos façons d’apprendre et de socialiser ; de lire et d’écrire. Ces changements ne sont pas sans conséquence sur de nombreuses institutions, juridiques ou non. Créées au fil du temps et adaptées à une réalité qu’elles avaient internalisée, elles doivent aujourd’hui comprendre et s’adapter au changement. L’écrit est une de ces institutions. Sa place dans le droit civil est le fruit de centaines d’années de cohabitation et le droit y a vu un allié stable. Mais autrefois facilitateur, l’écrit devient obstacle alors que les technologies de l’information, affranchies du papier, sont utilisées dans des situations juridiques. Comment adapter la notion d’écrit – et celles de l’original et de la signature – alors qu’il n’est question que de données abstraites sous forme numérique ? C’est là l’objet de ce mémoire. Suite à une étude de la notion d’écrit dans le temps, de son affirmation à son bouleversement, nous étudierons les outils juridiques (traditionnels ou récents, comme les principes de neutralité technologique et d’équivalence fonctionnelle) à la disposition du droit civil pour constamment s’adapter à des situations changeantes. Enfin, dans une perspective plus pratique, nous verrons le traitement qu’ont fait divers législateurs, de l’écrit électronique. Nous terminerons par une analyse plus précise des dispositions québécoises relatives à l’écrit électronique. Les principes étudiés dans ce mémoire sont susceptibles de s’appliquer à d’autres situations similaires. / Information technology has completely modified our way of learning, socialising, reading and writing. These changes have also affected numerous institutions. Developed over many years and adapted to a reality they internalised, they now have to understand the nature of the changes taking place and adapt to them. The legal concept of “writing” is such an institution. Its place in the realm of civil law is the result of hundreds of years of cohabitation. The legal system has found a great ally in “writings”. However, although “writing” has been seen as an enabler in the past, the use of information technologies in legal circumstances has turned it into an obstacle. How are we going to adapt the notion of writing – and those of original and signature – when talking about digital data ? This is the topic of our thesis. Following a historical study of the concept of “writing”, from its inception to its current state of crisis, we will analyse the legal tools made available to civil law (whether they be traditional or recent, such as the technological neutrality, and functional equivalence principles) in order to adapt to a constantly changing technological landscape. On a more practical level, we will study how different legislators have addressed electronic documents. Our study will conclude with an analysis of Quebec legislation pertaining to electronic documents. The principles studied in this thesis should be applicable to other similar situations.
46

Characterization of the unfolding of a weak focus and modulus of analytic classification

Arriagada Silva, Waldo G. 06 1900 (has links)
La thèse présente une description géométrique d’un germe de famille générique déployant un champ de vecteurs réel analytique avec un foyer faible à l’origine et son complexifié : le feuilletage holomorphe singulier associé. On montre que deux germes de telles familles sont orbitalement analytiquement équivalents si et seulement si les germes de familles de difféomorphismes déployant la complexification de leurs fonctions de retour de Poincaré sont conjuguées par une conjugaison analytique réelle. Le “caractère réel” de la famille correspond à sa Z2-équivariance dans R^4, et cela s’exprime comme l’invariance du plan réel sous le flot du système laquelle, à son tour, entraîne que l’expansion asymptotique de la fonction de Poincaré est réelle quand le paramètre est réel. Le pullback du plan réel après éclatement par la projection monoidal standard intersecte le feuilletage en une bande de Möbius réelle. La technique d’éclatement des singularités permet aussi de donner une réponse à la question de la “réalisation” d’un germe de famille déployant un germe de difféomorphisme avec un point fixe de multiplicateur égal à −1 et de codimension un comme application de semi-monodromie d’une famille générique déployant un foyer faible d’ordre un. Afin d’étudier l’espace des orbites de l’application de Poincaré, nous utilisons le point de vue de Glutsyuk, puisque la dynamique est linéarisable auprès des points singuliers : pour les valeurs réels du paramètre, notre démarche, classique, utilise une méthode géométrique, soit un changement de coordonée (coordonée “déroulante”) dans lequel la dynamique devient beaucoup plus simple. Mais le prix à payer est que la géométrie locale du plan complexe ambiante devient une surface de Riemann, sur laquelle deux notions de translation sont définies. Après avoir pris le quotient par le relèvement de la dynamique nous obtenons l’espace des orbites, ce qui s’avère être l’union de trois tores complexes plus les points singuliers (l’espace résultant est non-Hausdorff). Les translations, le caractère réel de l’application de Poincaré et le fait que cette application est un carré relient les différentes composantes du “module de Glutsyuk”. Cette propriété implique donc le fait qu’une seule composante de l’invariant Glutsyuk est indépendante. / The thesis gives a geometric description for the germ of the singular holomorphic foliation associated with the complexification of a germ of generic analytic family unfolding a real analytic vector field with a weak focus at the origin. We show that two such germs of families are orbitally analytically equivalent if and only if the germs of families of diffeomorphisms unfolding the complexified Poincaré map of the singularities are conjugate by a real analytic conjugacy. The Z2-equivariance of the family of real vector fields in R^4 is called the “real character” of the system. It is expressed by the invariance of the real plane under the flow of the system which, in turn, carries the real asymptotic expansion of the Poincaré map when the parameter is real. After blowing up the singularity, the pullback of the real plane by the standard monoidal map intersects the foliation in a real Möbius strip. The blow up technique allows to “realize” a germ of generic family unfolding a germ of diffeomorphism of codimension one and multiplier −1 at the origin as the semi-monodromy of a generic family unfolding an order one weak focus. In order to study the orbit space of the Poincaré map, we perform a trade-off between geometry and dynamics under the Glutsyuk point of view (where the dynamics is linearizable near the singular points): in the resulting “unwrapping coordinate” the dynamics becomes much simpler, but the price we pay is that the local geometry of the ambient complex plane turns into a much more involved Riemann surface. Over the latter, two notions of translations are defined. After taking the quotient by the lifted dynamics we get the orbit space, which turns out to be the union of three complex tori and the singular points (this space is non- Hausdorff). The Glutsyuk invariant is then defined over annular-like regions on the tori. The translations, the real character and the fact that the Poincaré map is the square of the semi-monodromy map, relate the different components of the Glutsyuk modulus. That property yields only one independent component of the Glutsyuk invariant.
47

Criteria for the validation of specialized verb equivalents : application in bilingual terminography

Pimentel, Janine 05 1900 (has links)
Multilingual terminological resources do not always include valid equivalents of legal terms for two main reasons. Firstly, legal systems can differ from one language community to another and even from one country to another because each has its own history and traditions. As a result, the non-isomorphism between legal and linguistic systems may render the identification of equivalents a particularly challenging task. Secondly, by focusing primarily on the definition of equivalence, a notion widely discussed in translation but not in terminology, the literature does not offer solid and systematic methodologies for assigning terminological equivalents. As a result, there is a lack of criteria to guide both terminologists and translators in the search and validation of equivalent terms. This problem is even more evident in the case of predicative units, such as verbs. Although some terminologists (L‘Homme 1998; Lerat 2002; Lorente 2007) have worked on specialized verbs, terminological equivalence between units that belong to this part of speech would benefit from a thorough study. By proposing a novel methodology to assign the equivalents of specialized verbs, this research aims at defining validation criteria for this kind of predicative units, so as to contribute to a better understanding of the phenomenon of terminological equivalence as well as to the development of multilingual terminography in general, and to the development of legal terminography, in particular. The study uses a Portuguese-English comparable corpus that consists of a single genre of texts, i.e. Supreme Court judgments, from which 100 Portuguese and 100 English specialized verbs were selected. The description of the verbs is based on the theory of Frame Semantics (Fillmore 1976, 1977, 1982, 1985; Fillmore and Atkins 1992), on the FrameNet methodology (Ruppenhofer et al. 2010), as well as on the methodology for compiling specialized lexical resources, such as DiCoInfo (L‘Homme 2008), developed in the Observatoire de linguistique Sens-Texte at the Université de Montréal. The research reviews contributions that have adopted the same theoretical and methodological framework to the compilation of lexical resources and proposes adaptations to the specific objectives of the project. In contrast to the top-down approach adopted by FrameNet lexicographers, the approach described here is bottom-up, i.e. verbs are first analyzed and then grouped into frames for each language separately. Specialized verbs are said to evoke a semantic frame, a sort of conceptual scenario in which a number of mandatory elements (core Frame Elements) play specific roles (e.g. ARGUER, JUDGE, LAW), but specialized verbs are often accompanied by other optional information (non-core Frame Elements), such as the criteria and reasons used by the judge to reach a decision (statutes, codes, previous decisions). The information concerning the semantic frame that each verb evokes was encoded in an xml editor and about twenty contexts illustrating the specific way each specialized verb evokes a given frame were semantically and syntactically annotated. The labels attributed to each semantic frame (e.g. [Compliance], [Verdict]) were used to group together certain synonyms, antonyms as well as equivalent terms. The research identified 165 pairs of candidate equivalents among the 200 Portuguese and English terms that were grouped together into 76 frames. 71% of the pairs of equivalents were considered full equivalents because not only do the verbs evoke the same conceptual scenario but their actantial structures, the linguistic realizations of the actants and their syntactic patterns were similar. 29% of the pairs of equivalents did not entirely meet these criteria and were considered partial equivalents. Reasons for partial equivalence are provided along with illustrative examples. Finally, the study describes the semasiological and onomasiological entry points that JuriDiCo, the bilingual lexical resource compiled during the project, offers to future users. / Les ressources multilingues portant sur le domaine juridique n‘incluent pas toujours d‘équivalents valides pour deux raisons. D‘abord, les systèmes juridiques peuvent différer d‘une communauté linguistique à l‘autre et même d‘un pays à l‘autre, car chacun a son histoire et ses traditions. Par conséquent, le phénomène de la non-isomorphie entre les systèmes juridiques et linguistiques rend difficile la tâche d‘identification des équivalents. En deuxième lieu, en se concentrant surtout sur la définition de la notion d‘équivalence, notion largement débattue en traductologie, mais non suffisamment en terminologie, la littérature ne propose pas de méthodologies solides et systématiques pour identifier les équivalents. On assiste donc à une absence de critères pouvant guider tant les terminologues que les traducteurs dans la recherche et la validation des équivalents des termes. Ce problème est encore plus évident dans le cas d‘unités prédicatives comme les verbes. Bien que certains terminologues (L'Homme, 1998; Lorente et Bevilacqua 2000; Costa et Silva 2004) aient déjà travaillé sur les verbes spécialisés, l‘équivalence terminologique, en ce qui concerne ce type d‘unités, bénéficierait d‘une étude approfondie. En proposant une méthodologie originale pour identifier les équivalents des verbes spécialisés, cette recherche consiste donc à définir des critères de validation de ce type d‘unités prédicatives afin de mieux comprendre le phénomène de l‘équivalence et aussi améliorer les ressources terminologiques multilingues, en général, et les ressources terminologiques multilingues couvrant le domaine juridique, en particulier. Cette étude utilise un corpus comparable portugais-anglais contenant un seul genre de textes, à savoir les décisions des cours suprêmes, à partir duquel 100 verbes spécialisés ont été sélectionnés pour chaque langue. La description des verbes se base sur la théorie de la sémantique des cadres (Fillmore 1976, 1977, 1982, 1985; Fillmore and Atkins 1992), sur la méthodologie de FrameNet (Ruppenhofer et al. 2010), ainsi que sur la méthodologie développée à l‘Observatoire de linguistique Sens-Texte pour compiler des ressources lexicales spécialisées, telles que le DiCoInfo (L‘Homme 2008). La recherche examine d‘autres contributions ayant déjà utilisé ce cadre théorique et méthodologique et propose des adaptations objectives du projet. Au lieu de suivre une démarche descendante comme le font les lexicographes de FrameNet, la démarche que nous décrivons est ascendante, c‘est-à-dire, pour chaque langue séparément, les verbes sont d‘abord analysés puis regroupés par cadres sémantiques. Dans cette recherche, chacun des verbes « évoque » un cadre ou frame, une sorte de scénario conceptuel, dans lequel un certain nombre d‘acteurs obligatoires (core Frame Elements) jouent des rôles spécifiques (le rôle de juge, le rôle d‘appelant, le rôle de la loi). Mis en discours, les termes sont souvent accompagnés d‘autres renseignements optionnels (non-core Frame Elements) comme ceux des critères utilisés par le juge pour rendre une décision (des lois, des codes, d‘autres décisions antérieures). Tous les renseignements concernant les cadres sémantiques que chacun des verbes évoque ont été encodés dans un éditeur xml et une vingtaine de contextes illustrant la façon spécifique dont chacun des verbes évoque un cadre donné ont été annotés. Les étiquettes attribuées à chaque cadre sémantique (ex. [Compliance], [Verdict]) ont servi à relier certains termes synonymes, certains termes antonymes ainsi que des candidats équivalents. Parmi les 200 termes portugais et anglais regroupés en 76 cadres, 165 paires de candidats équivalents ont été identifiés. 71% des paires d‘équivalents sont des équivalents parfaits parce que les verbes évoquent le même scénario conceptuel, leurs structures actancielles sont identiques, les réalisations linguistiques de chacun des actants sont équivalentes, et les patrons syntaxiques des verbes sont similaires. 29% des paires d‘équivalents correspondent à des équivalents partiels parce qu‘ils ne remplissent pas tous ces critères. Au moyen d‘exemples, l‘étude illustre tous les cas de figure observés et termine en présentant les différentes façons dont les futurs utilisateurs peuvent consulter le JuriDiCo, la ressource lexicale qui a été compilée pendant ce projet.
48

Étude sur l'équivalence de termes extraits automatiquement d'un corpus parallèle : contribution à l'extraction terminologique bilingue

Le Serrec, Annaïch January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
49

Analyse comparative de l'équivalence terminologique en corpus parallèle et en corpus comparable : application au domaine du changement climatique

Le Serrec, Annaïch 04 1900 (has links)
Les travaux entrepris dans le cadre de la présente thèse portent sur l’analyse de l’équivalence terminologique en corpus parallèle et en corpus comparable. Plus spécifiquement, nous nous intéressons aux corpus de textes spécialisés appartenant au domaine du changement climatique. Une des originalités de cette étude réside dans l’analyse des équivalents de termes simples. Les bases théoriques sur lesquelles nous nous appuyons sont la terminologie textuelle (Bourigault et Slodzian 1999) et l’approche lexico-sémantique (L’Homme 2005). Cette étude poursuit deux objectifs. Le premier est d’effectuer une analyse comparative de l’équivalence dans les deux types de corpus afin de vérifier si l’équivalence terminologique observable dans les corpus parallèles se distingue de celle que l’on trouve dans les corpus comparables. Le deuxième consiste à comparer dans le détail les équivalents associés à un même terme anglais, afin de les décrire et de les répertorier pour en dégager une typologie. L’analyse détaillée des équivalents français de 343 termes anglais est menée à bien grâce à l’exploitation d’outils informatiques (extracteur de termes, aligneur de textes, etc.) et à la mise en place d’une méthodologie rigoureuse divisée en trois parties. La première partie qui est commune aux deux objectifs de la recherche concerne l’élaboration des corpus, la validation des termes anglais et le repérage des équivalents français dans les deux corpus. La deuxième partie décrit les critères sur lesquels nous nous appuyons pour comparer les équivalents des deux types de corpus. La troisième partie met en place la typologie des équivalents associés à un même terme anglais. Les résultats pour le premier objectif montrent que sur les 343 termes anglais analysés, les termes présentant des équivalents critiquables dans les deux corpus sont relativement peu élevés (12), tandis que le nombre de termes présentant des similitudes d’équivalence entre les corpus est très élevé (272 équivalents identiques et 55 équivalents non critiquables). L’analyse comparative décrite dans ce chapitre confirme notre hypothèse selon laquelle la terminologie employée dans les corpus parallèles ne se démarque pas de celle des corpus comparables. Les résultats pour le deuxième objectif montrent que de nombreux termes anglais sont rendus par plusieurs équivalents (70 % des termes analysés). Il est aussi constaté que ce ne sont pas les synonymes qui forment le groupe le plus important des équivalents, mais les quasi-synonymes. En outre, les équivalents appartenant à une autre partie du discours constituent une part importante des équivalents. Ainsi, la typologie élaborée dans cette thèse présente des mécanismes de l’équivalence terminologique peu décrits aussi systématiquement dans les travaux antérieurs. / The research undertaken for this thesis concerns the analysis of terminological equivalence in a parallel corpus and a comparable corpus. More specifically, we focus on specialized texts related to the domain of climate change. A unique aspect of this study is based on the analysis of the equivalents of single word terms. The theoretical frameworks on which we rely are the terminologie textuelle (Bourigault et Slodzian 1999) and the lexico-sémantique approaches (L’Homme 2005). This study has two objectives. The first is to perform a comparative analysis of terminological equivalents in the two types of corpora in order to verify if the equivalents found in the parallel corpus are different from the ones observed in the comparable corpora. The second is to compare in detail equivalents associated with a same English term, in order to describe them and define a typology. A detailed analysis of the French equivalents of 343 English terms is carried out with the help of computer tools (term extractor, text aligner, etc.) and the establishment of a rigorous methodology divided into three parts. The first part, common to both objectives of the research concerns the elaboration of the corpus, the validation of the English terms and the identification of the French equivalents in the two corpora. The second part describes the criteria on which we rely to compare the equivalents of the two types of corpora. The third part sets up the typology of equivalents associated with a same English term. The results for the first objective shows that of the 343 English words analyzed, terms with equivalents that can be criticized in both corpora are relatively low in number (12), while the number of terms with similar equivalences between the two corpora is very high (272 identical and 55 equivalents not objectionable). The analysis described in this chapter confirms our hypothesis that terminology used in parallel corpora does not differ from that used in comparable corpora. The results of the second objective show that many English terms are rendered by several equivalents (70% of analyzed terms). It is also noted that synonyms are not the largest group of equivalents but near-synonyms. Also, equivalents from another part of speech constitute an important part of the equivalents analyzed. Thus, the typology developed in this thesis presents terminological equivalent mechanisms rarely described as systematically in previous work.
50

Designing scientific workflow following a structure and provenance-aware strategy / Conception de workflows scientifiques fondée sur la structure et la provenance

Chen, Jiuqiang 11 October 2013 (has links)
Les expériences bioinformatiques sont généralement effectuées à l'aide de workflows scientifiques dans lesquels les tâches sont enchaînées les unes aux autres pour former des structures de graphes très complexes et imbriquées. Les systèmes de workflows scientifiques ont ensuite été développés pour guider les utilisateurs dans la conception et l'exécution de workflows. Un avantage de ces systèmes par rapport aux approches traditionnelles est leur capacité à mémoriser automatiquement la provenance (ou lignage) des produits de données intermédiaires et finaux générés au cours de l'exécution du workflow. La provenance d'un produit de données contient des informations sur la façon dont le produit est dérivé, et est cruciale pour permettre aux scientifiques de comprendre, reproduire, et vérifier les résultats scientifiques facilement. Pour plusieurs raisons, la complexité du workflow et des structures d'exécution du workflow est en augmentation au fil du temps, ce qui a un impact évident sur la réutilisation des workflows scientifiques.L'objectif global de cette thèse est d'améliorer la réutilisation des workflows en fournissant des stratégies visant à réduire la complexité des structures de workflow tout en préservant la provenance. Deux stratégies sont introduites. Tout d'abord, nous proposons une approche de réécriture de la structure du graphe de n'importe quel workflow scientifique (classiquement représentée comme un graphe acyclique orienté (DAG)) dans une structure plus simple, à savoir une structure série-parallèle (SP) tout en préservant la provenance. Les SP-graphes sont simples et bien structurés, ce qui permet de mieux distinguer les principales étapes du workflow. En outre, d'un point de vue plus formel, on peut utiliser des algorithmes polynomiaux pour effectuer des opérations complexes fondées sur les graphiques (par exemple, la comparaison de workflows, ce qui est directement lié au problème d’homomorphisme de sous-graphes) lorsque les workflows ont des SP-structures alors que ces opérations sont reliées à des problèmes NP-hard pour des graphes qui sont des DAG sans aucune restriction sur leur structure. Nous avons introduit la notion de préservation de la provenance, conçu l’algorithme de réécriture SPFlow et réalisé l’outil associé.Deuxièmement, nous proposons une méthodologie avec une technique capable de réduire la redondance présente dans les workflow (en supprimant les occurrences inutiles de tâches). Plus précisément, nous détectons des « anti-modèles », un terme largement utilisé dans le domaine de la conception de programme, pour indiquer l'utilisation de formes idiomatiques qui mènent à une conception trop compliquée, et qui doit donc être évitée. Nous avons ainsi conçu l'algorithme DistillFlow qui est capable de transformer un workflow donné en un workflow sémantiquement équivalent «distillé», c’est-à-dire, qui est libre ou partiellement libre des anti-modèles et possède une structure plus concise et plus simple. Les deux principales approches de cette thèse (à savoir, SPFlow et DistillFlow) sont basées sur un modèle de provenance que nous avons introduit pour représenter la structure de la provenance des exécutions du workflowl. La notion de «provenance-équivalence» qui détermine si deux workflows ont la même signification est également au centre de notre travail. Nos solutions ont été testées systématiquement sur de grandes collections de workflows réels, en particulier avec le système Taverna. Nos outils sont disponibles à l'adresse: https://www.lri.fr/~chenj/. / Bioinformatics experiments are usually performed using scientific workflows in which tasks are chained together forming very intricate and nested graph structures. Scientific workflow systems have then been developed to guide users in the design and execution of workflows. An advantage of these systems over traditional approaches is their ability to automatically record the provenance (or lineage) of intermediate and final data products generated during workflow execution. The provenance of a data product contains information about how the product was derived, and it is crucial for enabling scientists to easily understand, reproduce, and verify scientific results. For several reasons, the complexity of workflow and workflow execution structures is increasing over time, which has a clear impact on scientific workflows reuse.The global aim of this thesis is to enhance workflow reuse by providing strategies to reduce the complexity of workflow structures while preserving provenance. Two strategies are introduced.First, we propose an approach to rewrite the graph structure of any scientific workflow (classically represented as a directed acyclic graph (DAG)) into a simpler structure, namely, a series-parallel (SP) structure while preserving provenance. SP-graphs are simple and layered, making the main phases of workflow easier to distinguish. Additionally, from a more formal point of view, polynomial-time algorithms for performing complex graph-based operations (e.g., comparing workflows, which is directly related to the problem of subgraph homomorphism) can be designed when workflows have SP-structures while such operations are related to an NP-hard problem for DAG structures without any restriction on their structures. The SPFlow rewriting and provenance-preserving algorithm and its associated tool are thus introduced.Second, we provide a methodology together with a technique able to reduce the redundancy present in workflows (by removing unnecessary occurrences of tasks). More precisely, we detect "anti-patterns", a term broadly used in program design to indicate the use of idiomatic forms that lead to over-complicated design, and which should therefore be avoided. We thus provide the DistillFlow algorithm able to transform a workflow into a distilled semantically-equivalent workflow, which is free or partly free of anti-patterns and has a more concise and simpler structure.The two main approaches of this thesis (namely, SPFlow and DistillFlow) are based on a provenance model that we have introduced to represent the provenance structure of the workflow executions. The notion of provenance-equivalence which determines whether two workflows have the same meaning is also at the center of our work. Our solutions have been systematically tested on large collections of real workflows, especially from the Taverna system. Our approaches are available for use at https://www.lri.fr/~chenj/.

Page generated in 0.0836 seconds