• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 311
  • 105
  • 31
  • 1
  • Tagged with
  • 449
  • 154
  • 83
  • 77
  • 68
  • 62
  • 61
  • 47
  • 41
  • 38
  • 38
  • 34
  • 34
  • 33
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Approche méthodologique pour le maintien de la cohérence des données de conception des systèmes sur puce / Methodological approach for maintaining consistency of system on chip design data

Chichignoud, Aurélien 16 March 2017 (has links)
Le développement de produits complexes demande la maintenance d'un grand nombre de documents interdépendants exprimés dans différents formats. Malheureusement, aujourd'hui, aucun outil et aucune méthodologie ne nous permettent pas de maintenir la cohérence et de propager systématiquement les changements entre ces documents. D'après les observations faites dans l'entreprise STMicroelectronics, lorsqu'un document est modifié, les développeurs doivent propager manuellement la modification à l'ensemble des documents impactés. Pour diverses raisons, ces changements peuvent ne pas être correctement appliqués, voir même ne pas être appliqués du tout. Les documents divergent alors peu à peu, impactant dramatiquement le temps de développement pour réaligner tous les documents. Nous proposons une méthodologie aidant les développeurs à maintenir systématiquement la cohérence entre les documents, basée sur le concept de description d'architecture introduit par l'ISO42010. Premièrement, un modèle est défini pour décrire formellement et complètement des correspondances (liens existants) entre des documents. Ce modèle est défini pour être indépendant des formats de documents, du cycle de développement et des méthodes de travail de l'entreprise. Deuxièmement, ces correspondances sont analysées afin d'aider les développeurs à maintenir la cohérence des documents en les informant lorsqu'un document est modifié. Un prototype mettant en œuvre l’approche proposée a été développé afin d’évaluer la méthodologie. 18 sujets se sont portés volontaires afin d’évaluer l'approche. Ces sujets ont été soumis à deux tests (avec et sans notre méthodologie) impliquant la correction d’incohérences ajoutées dans un ensemble de documents. Ces tests nous ont permis de dégager deux variables : le nombre d’incohérences corrigées et le temps moyen pour corriger les incohérences. Selon notre étude, l’utilisation de notre approche permet de corriger 5,5% d’incohérences en plus en un temps 3,3% plus faible. / The development of highly complex products requires the maintenance of a huge set of inter-dependent documents, in various formats. Unfortunately, no tool or methodology is available today to systematically maintain consistency between all these documents. Therefore, according to observations made in STMicroelectronics, when a document changes, stakeholders must manually propagate the changes to the impacted set of dependent documents. For various reasons, they may not well propagate the change, or even may not propagate it at all. Related documents thereby diverge more and more over time. It dramatically impacts productivity to realign documents and make the very wide-ranging corpus of documents consistent. This paper proposes a methodology to help stakeholders to systematically maintain consistency between documents, based on the Architecture Description concept introduced by ISO42010. First, a model is defined to describe formally and completely correspondences between Architecture Description Elements of documents. This model is designed to be independent of documents formats, selected system development lifecycle and the working methods of the industry. Second, these correspondences are analyzed in case of document modification in order to help stakeholders maintaining global corpus consistency. A prototype has been developed, which implements the proposed approach, to evaluate the methodology. 18 subjects volunteered to evaluate the approach. These subjects made two tests (with and without our methodology) involving the correction of inconsistencies added in a set of documents. These tests allowed us to identify two variables: the number of inconsistencies corrected and the average time to correct the inconsistencies. According to our study, the use of the approach helps to correct 5.5% more inconsistencies in a time 3.3% lower.
172

Pour une cohérence du résultat d'un opérateur dans un contexte spatial, temporel et alphanumérique / Towards a coherency of the data model associated with the result of an operator in a spatial, temporal and alphanumerical context

Moussa, Ahmad 18 December 2018 (has links)
L'information géographique peut être perçue selon trois dimensions : une dimension spatiale (e.g., ville), une dimension temporelle (e.g., date) et une dimension alphanumérique (e.g., population). L'intégration de ces différents types de données est l'un des challenges actuels de la production d'applications permettant la représentation et le traitement d'informations géographiques. Nous nous proposons de contribuer à cette problématique en proposant une méthode afin d'aider à la gestion de la cohérence des données impliquant deux des trois dimensions. Cette cohérence peut se poser après application d'un opérateur sur les informations géographiques. La méthode que nous proposons est basée sur des liens sémantiques entre les dimensions. Une liaison sémantique représente le rapport logique entre les dimensions. Cette liaison associée à des règles de comportement des opérateurs de manipulation, nous permet de garantir la cohérence du modèle de données associé au résultat d’un opérateur. / Geographic information can be perceived according to three dimensions: a spatial dimension (e.g., city), a temporal dimension (e.g., date) and an alphanumeric dimension (e.g., population). The integration of these various types of data is one of the current challenges in order to model geographic representation and to process geographic information. We contribute to this challenge by proposing a method to help in the management of data coherency involving two on three dimensions. This coherency can be settled after applying an operator on geographic information. Our method is based on semantic links between dimensions. A semantic link represents the logical interaction between (two) dimensions. This connection, associated with a set of rules depending on data manipulation operators, allows us to guarantee the coherency of the data model associated with the result of an operator.
173

Développement de techniques d’imageries pour le diagnostic et le pronostic des tumeurs du rein / Imaging Techniques Development for Renal Tumor Diagnostic and Prognostic

Ingels, Alexandre 11 December 2018 (has links)
Le but du projet est le développement de nouvelles techniques d’imagerie pour le diagnostic et le traitement du cancer du rein. Nous avons évalué différentes techniques comprenant la tomographie en cohérence optique et l’imagerie moléculaire. Nous avons évalué différents marqueurs potentiels pour l’imagerie moléculaire en étudiant l’expression de différents marqueurs dans le cancer du rein et leur association avec le pronostic de la maladie. Enfin, nous avons évalué deux techniques d’imagerie moléculaire sur des modèles précliniques : l’Imagerie par Résonnance Magnétique moléculaire et l’échographie moléculaire. / The aim of this project is the development of new imaging techniques for renal cancer diagnostic and treatment.We have assessed several techniques including optical coherence tomography and molecular imaging. We assessed a series of potential markers for molecular imaging by measuring some pre-defined markers expressions by immunohistochemistry in renal cell carcinoma and their association with disease’s prognostic. Finally, we assessed two molecular imaging techniques in pre-clinical models: Molecular Magnetic Resonance Imaging and Molecular Ultrasound Imaging.
174

Développement de systèmes de microscopie par cohérence optique plein champ étendus spatialement et spectralement / Development of full-field optical coherence microscopy systems with extended spatial and spectral properties

Federici, Antoine 20 October 2015 (has links)
La tomographie par cohérence optique plein champ (OCT plein champ) est une technique de microscopie interférométrique basée sur l’utilisation d’une source de lumière faiblement cohérente, telle qu’une lampe halogène. Elle permet de réaliser, de façon non invasive, des images tomographiques à plusieurs centaines de micromètres de profondeur dans les tissus biologiques et avec une résolution spatiale isotrope de l’ordre de 1 µm. Ces travaux de thèse concernent le développement de plusieurs systèmes d'OCT plein champ, dans le but de proposer de nouvelles performances et de nouveaux contrastes destinés à l’imagerie en trois dimensions de tissus biologiques. Nous avons dans un premier temps exploité la large bande spectrale d’émission d’une lampe halogène, afin d’apporter une information spectroscopique et d’être capable de distinguer et de caractériser des zones d’un échantillon qui seraient sinon indiscernables. Puis nous avons optimisé la résolution spatiale d’un montage d’OCT plein champ pour atteindre une valeur record de 0,5 µm (dans l’eau) dans les trois directions de l’espace, notamment grâce à l’utilisation d’une bande spectrale adaptée à l’imagerie de tissus, tels que la peau. Un montage dont le champ de vision est élargi à 18 mm x 18 mm a ensuite été développé et appliqué à l’imagerie du signal d’amplitude ainsi qu’à la mesure quantitative du signal de phase résolu en profondeur. Enfin un système utilisant un laser à balayage spectral comme source de lumière combiné à un traitement numérique de correction de la focalisation a été mis en œuvre. Nous avons ainsi démontré la possibilité de réaliser des images en trois dimensions avec une résolution latérale relativement élevée, sans utiliser le moindre déplacement mécanique durant l’acquisition. / Full-field optical coherence tomography (FF-OCT) is an optical technology based on low-coherence interference microscopy for tomographic imaging of semitransparent samples. Non-invasive three-dimensional imaging can be performed with an isotropic spatial resolution of the order of 1 µm. During the PhD thesis, several FF-OCT systems have been reported achieving extended performances or contrast enhanced images relevant for biological tissues imaging. Firstly, a three-band, 1.9-μm axial resolution FF-OCT system has been implemented to perform spectroscopic contrast enhanced imaging of biological tissues over a 530-1700 nm wavelength range. Then, a study of the FF-OCT axial response has been carried out for maximizing the axial resolution of the system. An isotropic spatial resolution of 0.5 µm (in water) has been obtained by combining 1.2-NA microscope objectives with an optimized broad spectral band adapted to biological tissues imaging, such as skin samples. A set-up with an extended field of view of 18 mm x 18 mm has been also designed and applied to amplitude signal detection as well as depth-resolved quantitative phase signal measurement. At last, we developed a technique based on the combination of full-field swept-source optical coherence tomography (FF-SSOCT) with low spatial coherence illumination and a special numerical processing that allows for numerically focused mechanical motion-free three-dimensional imaging.
175

Gargamel : accroître les performances des DBMS en parallélisant les transactions en écriture / Gargamel : boosting DBMS performance by parallelising write transactions

Cincilla, Pierpaolo 15 September 2014 (has links)
Les bases de données présentent des problèmes de passage à l’échelle. Ceci est principalement dû à la compétition pour les ressources et au coût du contrôle de la concurrence. Une alternative consiste à centraliser les écritures afin d’éviter les conflits. Cependant, cette solution ne présente des performances satisfaisantes que pour les applications effectuant majoritairement des lectures. Une autre solution est d’affaiblir les propriétés transactionnelles mais cela complexifie le travail des développeurs d’applications. Notre solution, Gargamel, répartie les transactions effectuant des écritures sur différentes répliques de la base de données tout en gardant de fortes propriétés transactionnelles. Toutes les répliques de la base de donnée s’exécutent séquentiellement, à plein débit; la synchronisation entre les répliques reste minime. Les évaluations effectuées avec notre prototype montrent que Gargamel permet d’améliorer le temps de réponse et la charge d’un ordre de grandeur quand la compétition est forte (systèmes très chargés avec ressources limitées) et que dans les autres cas le ralentissement est négligeable. / Databases often scale poorly in distributed configurations, due to the cost of concurrency control and to resource contention. The alternative of centralizing writes works well only for read-intensive workloads, whereas weakening transactional properties is problematic for application developers. Our solution spreads non-conflicting update transactions to different replicas, but still provides strong transactional guarantees. In effect, Gargamel partitions the database dynamically according to the update workload. Each database replica runs sequentially, at full bandwidth; mutual synchronisation between replicas remains minimal. Our prototype show that Gargamel improves both response time and load by an order of magnitude when contention is high (highly loaded system with bounded resources), and that otherwise slow-down is negligible.
176

OCT en phase pour la reconnaissance biométrique par empreintes digitales et sa sécurisation / Phase-based Optical Coherence Tomography (OCT) for a robust and very secure fingerprint biometric recognition

Lamare, François 21 March 2016 (has links)
Dans un monde de plus en plus ouvert, les flux de personnes sont amenés à exploser dans les prochaines années. Fluidifier et contrôler ces flux, tout en respectant de fortes contraintes sécuritaires, apparaît donc comme un élément clef pour favoriser le dynamisme économique mondial. Cette gestion des flux passe principalement par la connaissance et la vérification de l’identité des personnes. Pour son aspect pratique et a priori sécurisé, la biométrie, et en particulier celle des empreintes digitales, s’est imposée comme une solution efficace, et incontournable. Néanmoins, elle souffre de deux sévères limitations. La première concerne les mauvaises performances obtenues avec des doigts détériorés. Ces détériorations peuvent être involontaires (travailleurs manuels par exemple), ou bien volontaires, à des fins d’anonymisation. La deuxième concerne les failles de sécurité des capteurs. En particulier, ils sont vulnérables à des attaques avec de fausses empreintes, réalisées par des personnes mal intentionnées dans un but d’usurpation d’identité. D’après nous, ces limitations sont dues à la faible quantité d’information exploitée par les capteurs usuels. Elle se résume souvent à une simple image de la surface du doigt. Pourtant, la complexité biologique des tissus humains est telle qu’elle offre une information très riche, unique, et difficilement reproductible. Nous avons donc proposé une approche d’imagerie, basée sur la Tomographique par Cohérence Optique, un capteur 3D sans contact, permettant de mesurer finement cette information. L’idée majeure de la thèse consiste à étudier divers moyens de l’exploiter, afin de rendre la biométrie plus robuste et vraiment sécurisée / In an increasingly open world, the flows of people are brought to explode in the coming years. Facilitating, streamlining, and managing these flows, by maintaining strict security constraints, therefore represent a key element for the global socio-economic dynamism. This flows management is mainly based on knowledge and verification of person identity. For its practicality and a priori secured, biometrics, in particular fingerprints biometrics, has become an effective and unavoidable solution.Nevertheless, it still suffers from two severe limitations. The first one concerns the poor performances obtained with damaged fingers. This damage can be involuntary (e.g. manual workers) or volunteers, for purposes of anonymity. The second limitation consists in the vulnerability of the commonly used sensors. In particular, they are vulnerable to copies of stolen fingerprints, made by malicious persons for identity theft purpose. We believe that these limitations are due to the small amount of information brought by the usual biometric sensors. It often consists in a single print of the finger surface. However, the biological complexity of human tissue provides rich information, unique to each person, and very difficult to reproduce. We therefore proposed an imaging approach based on Optical Coherence Tomography (OCT), a 3D contactless optical sensor, to finely measure this information. The main idea of the thesis is therefore to explore novel ways to exploit this information in order to make biometrics more robust and truly secured. In particular, we have proposed and evaluated different fingerprint imaging methods, based on the phase of the OCT signal
177

Cohérence discursive et implicatures conversationnelles : analyses empiriques et théoriques vers un modèle pragmatique à l'échelle de la conversation

Meister, Fiona 08 1900 (has links)
Selon Asher (2013), la cohérence discursive force l’inférence de (1c) dans les exemples (1a)-(1b), expliquant ainsi l’(in)acceptabilité des exemples. (1) a. ‘John a un nombre pair d’enfants. Il en a 4.’ b. ‘ ? ?John a un nombre pair d’enfants. Il en a 3.’ c. +> John a n enfants et pas plus Nous avons tenté de déterminer si les implicatures nécessaires au maintien de la cohérence discursive sont systématiquement inférées en nous appuyant sur les théories de la RST et de la SDRT. Des tests linguistiques et la vérification du respect des contraintes sémantiques associées aux relations de discours ont mis en évidence deux catégories d’exemples contenant le quantificateur certains : ceux de type- RenfNA, dont les implicatures ne sont pas nécessaires à la cohérence et ceux de typeRenfA dans lesquels elles le sont. Nos tests ayant révélé que le renforcement est nécessaire dans les exemples de typeRenfA, nous avons conclu que les implicatures ne sont pas systématiquement inférées. Nous avons tenté d’apporter une explication à ce phénomène en effectuant des analyses de la structure discursive de nos exemples et avons démontré que dans les exemples de typeRenfNA, les relations de discours visent le constituant π∃ (certains), tandis que dans ceux de typeRenfA, le constituant π¬∀ (mais pas tous) est visé. Nos travaux ont démontré que les implicatures scalaires ne sont pas systématiquement inférées rendant parfois leur renforcement obligatoire. Nous avons également proposé un modèle à granularité fine prenant en compte la structure discursive et la pragmatique afin d’expliquer ce phénomène. / According to Asher (2013), discourse coherence forces the inference of (2c) in examples (2a)-(2b), thus explaining the (in)acceptability of these examples. (2) a. ‘John has an even number of children. He has 4.’ b. ‘??John has an even number of children. He has 3.’ c. +> John has n children and not more We attempted to determine whether the implicatures that are necessary to maintain discourse coherence are systematically inferred by drawing on the theories of RST and SDRT. Through linguistic tests and checking the respect of semantic constraints associated with discourse relations, we identified two categories of examples containing the quantifier some: typeRenfNA examples, in which implicatures are not necessary for discourse coherence, and typeRenfA examples in which they are. As our tests revealed that reinforcement is necessary in typeRenfA examples, we concluded that implicatures are not systematically inferred. We then attempted to explain this phenomenon. We performed analyses of the discourse structure of our examples and showed that in typeRenfNA examples, the discourse relations target the π∃ (some) constituent, while in typeRenfA examples, the π¬∀ (but not all) constituent is targeted. Thus, our work has shown that scalar implicatures are not systematically inferred, making implicature reinforcement sometimes mandatory. We also proposed a fine-grained model taking discourse structure and pragmatics into account to explain this phenomenon.
178

La cohésion de la vie chez Edmund Husserl et Paul Ricoeur : le problème de l'unification du cours temporel de l'expérience

Desmeules, Marie-Hélène 18 April 2018 (has links)
Même si sa temporalité implique une diversité de ses expériences, le sujet admet aussi une unité temporelle de ses expériences dispersées. Comment se donne en propre cette unité temporelle? Edmund Husserl a surtout décrit la constitution unitaire du cours des vécus par le simple écoulement continu et en recouvrement du flux de la conscience. En plus de souligner l'aspect aporétique de cette constitution par et dans la seule conscience, Paul Ricoeur a aussi cherché à constituer la temporalité unitaire du sujet en montrant comment cette unification devait se faire par sa saisie médiatisée et reflexive dans l'histoire d'une vie. Cette solution indique un renouvellement possible de cette question dans la phénoménologie husserlienne, puisque Husserl qualifie d'« histoire d'une vie » l'unité temporelle de l'ego personnel ressaisie dans la réflexion. Cette histoire redouble cependant une unité de l'ego personnel déjà constituée par l'association et dans ses motivations et ses habitudes.
179

Étude des problèmes de cohérence touchant à l'arrimage des énoncés dans des textes écrits en français langue étrangère par des étudiants universitaires kabyles

Hocine, Siham 24 April 2018 (has links)
Protocole d'entente entre l'Université Laval et l'Université du Québec à Chicoutimi / Les études menées sur les textes écrits en français langue étrangère (FLÉ) par des étudiants kabyles en Algérie mettent l'accent sur les aspects linguistiques de la rédaction comme l'emploi des auxiliaires et l'usage des prépositions. Elles laissent totalement dans l'ombre l'étude de la cohérence du texte. Il nous parait donc pertinent de nous attarder à la compétence textuelle en FLÉ de ces étudiants. Notre recherche vise principalement l'étude des problèmes de cohérence liés à l'arrimage des énoncés dans les écrits des étudiants. Notre cadre théorique s'appuie essentiellement sur les concepts de cohérence et la taxinomie des ruptures de cohérence proposés par Gagnon (1998, 2003) et Gagnon et Chamberland (2010). Cette taxinomie renvoie aux quatre niveaux de structuration d'un texte, lesquels représentent quatre niveaux d'arrimage des énoncés pouvant donner lieu à des ruptures de cohérence : événementiel, énonciatif, référentiel et informatif. Notre corpus est composé de 14 textes écrits par des étudiants algériens kabyles qui poursuivent leurs études au Québec. La méthode d'analyse des textes, inspirée de celle de l'étude de Gagnon. (2014), comporte les étapes suivantes: les ruptures sont observées dans chaque texte et classées en fonction du classement proposé par Gagnon (1998, 2003) et Gagnon et Chamberland (2010), puis expliquées; des suggestions de correction sont ensuite proposées. L'analyse du corpus montre que la faiblesse des étudiants kabyles en ce qui concerne la rédaction en FLÉ se situe en grande partie au niveau événementiel, plus précisément, au niveau de la pertinence des énoncés ainsi que dans l'établissement des relations logiques (cause, opposition, etc.) entre les informations du texte par l'emploi des connecteurs. Les faiblesses qui ont été soulevées par notre étude pourront inspirer l'élaboration de contenus d'apprentissage pour l'enseignement de la rédaction en FLÉ en Algérie.
180

Le rôle des constructions détachées participiales dans la cohérence textuelle

Laberge, Annie 23 January 2020 (has links)
Protocole d'entente entre l'Université Laval et l'Université du Québec à Chicoutimi / L’enseignement de l’écriture est un souci constant dans le milieu académique, de l’école secondaire aux études supérieures, et quand on parle de rédiger un texte, plusieurs questions sont soulevées. Quels outils sont à notre disposition pour réaliser une rédaction? Qu’est-ce qui fait qu’un texte est cohérent? Comment accompagner l’étudiant dans sa démarche? Sur quels critères baser la correction du travail rédactionnel? Dans ce mémoire, afin de mettre en lumière certains aspects délicats du processus d’écriture, nous avons voulu clarifier la fonction d’une structure spécifique : la construction détachée participiale (CD part). Nous pensons en effet que cette construction joue un rôle à trois niveaux de structuration du texte définis par Gagnon (1998, 2003, 2008, 2015), soit au niveau référentiel, informatif et événementiel. Nous étudierons donc les participes présents détachés dans le cadre théorique de Gagnon, soit celui de la cohérence textuelle, à ces trois niveaux d’arrimage. La majorité des études sur les CD ont été faites sur des corpus de scripteurs experts (textes informatifs et littéraires) mais dans ce travail, nous avons choisi de nous intéresser majoritairement aux textes produits par des étudiants, et ce, afin de mieux cerner l’utilisation réelle de cette construction et de proposer des pistes de réflexion pour l’améliorer. Nous verrons qu’utiliser une CD requiert plusieurs connaissances textuelles, liées aux trois arrimages visés : respecter la règle de coréférence, peu présente à l’oral, réaliser un enchaînement pertinent au plan informatif en plaçant, de préférence, l’information de la CD au second plan du texte et enfin, être conscient de la relation établie entre la CD et la proposition principale. Nous espérons que mieux comprendre le rôle des CD participiales permettra de mieux les maîtriser et, par le fait même, de mettre en lumière certains éléments essentiels à connaître dans la démarche rédactionnelle. De ce fait, les enjeux de notre recherche sont doubles : linguistique et didactique.

Page generated in 0.0687 seconds