• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 311
  • 105
  • 31
  • 1
  • Tagged with
  • 449
  • 154
  • 83
  • 77
  • 68
  • 62
  • 61
  • 47
  • 41
  • 38
  • 38
  • 34
  • 34
  • 33
  • 31
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Analyse cognitive de la cohérence interindexeurs lors de l'indexation de documents

David, Claire January 2003 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
32

Mesure de cohérence stéréoscopique : effet du vieillissement et du microstrabisme

Laframboise, Stéphane January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
33

Reconstruction volumétrique par l'algorithme du flot maximum dans un graphe

Proulx, Catherine January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
34

Traitement des contraintes formelles liées au genre et au medium de production par des scripteurs novices : étude didactique / How "novice" writers deal with the formal exigencies relative to genre and means of production : a didactic study

Lafourcade, Bernadette 20 November 2008 (has links)
Cette recherche s'intéresse à l'écriture en tant que système de contraintes avec pour objectif d'étudier le fonctionnement des contraintes liées au genre et au médium de production dans une perspective didactique. S'appuyant sur l'approche bakhtinienne de la notion de genre et sur les analyses psycholinguistiques de l'écriture, elle s'est proposé d'observer en recourant aux méthodes issues de la critique génétique la manière dont les scripteurs novices traitents ces deux contraintes à travers trois expérimentations, deux menées auprès de lycéens en 2003-2004 et 2004-2005 et une menée auprès de scripteurs experts, des professeurs des écoles stagiaires en 2004-2005. La tâche consistait à produire, en écriture manuscrite ou sur traitement de texte, des textes à partir de l'incipit puis de l'excipit d'une nouvelle aux indices génériques flous ou contradictoires, afin de permettre au chercheur de mesurer d'une part l'impact de la préhension des marques de généricité, d'autre part l'impact du médium de producxtion sur la cohérence macrostructurelle et la "qualité" des suites de texte produites. Les constats opérés ont donné lieu à des propositions concernant les activités d'écriture à mettre en place au lycée pour apporter une aide efficace aux adolescents, notamment pour les initier à l'écriture de textes ou de métatextes conformes à ceux qu'ils devront produire à l'épreuve de français au baccalauréat (EAF). Loin d'épuiser le sujet, la recherche a permis de confirmer certaines avancées issues de travaux de linguistes, psycholinguistes, généticiens et didactitiens et surtout de montrer comment elles s'appliquent aux écrits des scripteurs en formation que sont les lycéens / This study which deals with the writing process as a system of formal exigencies, aims at analysing those relative to genre and those relative to the means of production. Taking Bakhtin's approach to the notion of genre along with the findings from psycholinguistic studies of written production, using genetic critic methodology, it was observed in three experiments - two of then carried out in 2003-2004 and 2004-2005 amonf "novice" writers and another among trainee primary teatchers ("expert" writers) - how first year pupils deal with these two formal exigencies. Their task was to produce hand written or word processed texts first from the "incipit", then from the "excipit" content of a novel with vague or contradictory indications of genre, in order to allow the researcher to evaluate, on the one hand, how effectively they aprrehend characteristics pertaining to genre and, on the other, whether the means of production have an impact on macrostructural cohesion and "quality" of the series of texts produced. The results question which type of writing activities should be put into practice in high schools to effectively help adolescents, especially in introducing them to writing the type of texts or metatexts which they will have to produce for their baccalaureat French language exam (EAF). Although not an exaustive study these findings have nonetheless confirmed some of the research results of linguists, psycholinguists, geneticists and researchers on Composition Theory and, most significantly, have shown how there results can be useful in analysing the texts of learner writers
35

Sur le rôle de la déduction dans le raisonnement à partir de prémisses incertaines / On the role of deduction in reasoning from uncertain premises

Cruz de Echeverria Loebell, Nicole 14 June 2018 (has links)
L’approche probabiliste du raisonnement émet l’hypothèse que la plupart des raisonnements, aussi bien dans la vie quotidienne qu’en science, se réalisent dans des contextes d’incertitude. Les concepts déductifs centraux de la logique classique, consistance et validité, peuvent être généralisés afin d’englober des degrés de croyance incertains. La consistance binaire peut être généralisée à travers la dénomination de cohérence, lorsque les jugements de probabilité à deux affirmations sont cohérents seulement s’ils respectent les axiomes de la théorie de la probabilité. La validité binaire peut se généraliser comme validité probabiliste (validité-p), lorsqu’une interférence est valide-p seulement si l’incertitude de sa conclusion ne peut être de façon cohérente plus grande que la somme des incertitudes de ses prémisses. Cependant le fait que cette généralisation soit possible dans une logique formelle n’implique pas le fait que les gens utilisent la déduction de manière probabiliste. Le rôle de la déduction dans le raisonnement à partir de prémisses incertaines a été étudié à travers dix expériences et 23 inférences de complexités différentes. Les résultats mettent en évidence le fait que la cohérence et la validité-p ne sont pas juste des formalismes abstraits, mais que les gens vont suivre les contraintes normatives établies par eux dans leur raisonnement. Que les prémisses soient certaines ou incertaines n’a pas créé de différence qualitative, mais la certitude pourrait être interprétée comme l’aboutissement d’une échelle commune de degrés de croyance. Les observations sont la preuve de la pertinence descriptive de la cohérence et de la validité-p comme principes de niveau de calcul pour le raisonnement. Ils ont des implications pour l’interprétation d’observations antérieures sur les rôles de la déduction et des degrés de croyance. Enfin, ils offrent une perspective pour générer de nouvelles hypothèses de recherche quant à l’interface entre raisonnement déductif et inductif. / The probabilistic approach to reasoning hypothesizes that most reasoning, both in everyday life and in science, takes place in contexts of uncertainty. The central deductive concepts of classical logic, consistency and validity, can be generalised to cover uncertain degrees of belief. Binary consistency can be generalised to coherence, where the probability judgments for two statements are coherent if and only if they respect the axioms of probability theory. Binary validity can be generalised to probabilistic validity (p-validity), where an inference is p-valid if and only if the uncertainty of its conclusion cannot be coherently greater than the sum of the uncertainties of its premises. But the fact that this generalisation is possible in formal logic does not imply that people will use deduction in a probabilistic way. The role of deduction in reasoning from uncertain premises was investigated across ten experiments and 23 inferences of differing complexity. The results provide evidence that coherence and p-validity are not just abstract formalisms, but that people follow the normative constraints set by them in their reasoning. It made no qualitative difference whether the premises were certain or uncertain, but certainty could be interpreted as the endpoint of a common scale for degrees of belief. The findings are evidence for the descriptive adequacy of coherence and p-validity as computational level principles for reasoning. They have implications for the interpretation of past findings on the roles of deduction and degrees of belief. And they offer a perspective for generating new research hypotheses in the interface between deductive and inductive reasoning.
36

Suivi longitudinal des endoprothèses coronaires par analyse de séquences d'images de tomographie par cohérence optique. / Longitudinal follow-up of coronary stents by optical coherence tomography image sequence analysis.

Menguy, Pierre-Yves 19 December 2016 (has links)
Cette thèse porte sur la segmentation et la caractérisation des artères coronaires et des endoprothèses (stent) en imagerie de Tomographie par Cohérence Optique (OCT). L’OCT est une imagerie de très haute résolution qui permet d’apprécier des structures fines comme la couche intimale de la paroi vasculaire et les mailles du stent (struts). L’objectif de cette thèse est de proposer des outils logiciels autorisant l’analyse automatique d’un examen avec un temps d’exécution compatible avec une utilisation peropératoire. Ces travaux font suite à la thèse de Dubuisson en OCT, qui avait proposé un premier formalisme pour la segmentation de la lumière et la détection des struts pour les stents métalliques. Nous avons revisité la chaine de traitement pour ces deux problèmes et proposé une méthode préliminaire de détection de stents en polymère biorésorbable. Une modélisation surfacique du stent a permis d’estimer une série d’indices cliniques à partir des diamètres, surfaces et volumes mesurés sur chaque coupe ou sur l’ensemble de l’examen. L’apposition du stent par rapport à la paroi est également mesurée et visualisée en 3D avec une échelle de couleurs intuitive. La lumière artérielle est délimitée à l’aide d’un algorithme de recherche de plus court chemin de type Fast Marching. Son originalité est d’exploiter l’image sous la forme hélicoïdale native de l’acquisition. Pour la détection du stent métallique, les maxima locaux de l’image suivis d’une zone d’ombre ont été détectés et caractérisés par un vecteur d’attributs calculés dans leur voisinage (valeur relative du maximum, pente en niveau de gris, symétrie...). Les pics correspondant à des struts ont été discriminés du speckle environnant par une étape de régression logistique avec un apprentissage à partir d’une vérité terrain construite par un expert. Une probabilité d’appartenance des pics aux struts est construite à partir de la combinaison des attributs obtenue. L’originalité de la méthode réside en la fusion des probabilités des éléments proches avant d’appliquer un critère de décision lui aussi déterminé à partir de la vérité terrain. La méthode a été évaluée sur une base de données de 14 examens complets, à la fois au niveau des pixels et des struts détectés. Nous avons également validé de façon exhaustive une méthode de recalage non rigide d’images OCT exploitant des amers appariés par un expert sur les examens source et cible. L’objectif de ce recalage est de pouvoir comparer les examens coupe à coupe et les indices calculés aux mêmes positions à des temps d’acquisition différents. La fiabilité du modèle de déformation a été évaluée sur un corpus de quarante-quatre paires d’examens OCT à partir d’une technique de validation croisée par Leave-One-Out. / This thesis deals with the segmentation and characterization of coronary arteries and stents in Optical Coherence Tomography (OCT) imaging. OCT is a very high resolution imaging that can appreciate fine structures such as the intimal layer of the vascular wall and stitches (struts). The objective of this thesis is to propose software tools allowing the automatic analysis of an examination with a runtime compatible with an intraoperative use. This work follows Dubuisson's thesis in OCT, which proposed a first formalism for light segmentation and strut detection for metal stents. We revisited the treatment chain for these two problems and proposed a preliminary method for detecting bioabsorbable polymer stents. Surface modeling of the stent made it possible to estimate a series of clinical indices from the diameters, surfaces and volumes measured on each section or on the entire examination. Applying the stent to the wall is also measured and visualized in 3D with an intuitive color scale. The arterial lumen is delineated using a Fast Marching short path search algorithm. Its originality is to exploit the image in the native helical form of the acquisition. For the detection of the metallic stent, the local maxima of the image followed by a shadow zone have been detected and characterized by a vector of attributes calculated in their neighborhood (relative value of the maximum, slope in gray level, symmetry ...). Peaks corresponding to struts were discriminated from the surrounding speckle by a logistic regression step with learning from a field truth constructed by an expert. A probability of belonging to the peaks to struts is constructed from the combination of attributes obtained. The originality of the method lies in the fusion of the probabilities of the close elements before applying a decision criterion also determined from the ground truth. The method was evaluated on a database of 14 complete examinations, both at the level of pixels and struts detected. We have also extensively validated a method of non-rigid registration of OCT images using bitters matched by an expert on the source and target exams. The objective of this registration is to be able to compare cut-to-cut examinations and indices calculated at the same positions at different acquisition times. The reliability of the strain model was evaluated on a corpus of forty-four pairs of OCT exams from a Leave-One-Out cross validation technique.
37

Réécriture de dimension supérieure et cohérence appliquées à la catégorification et la théorie des représentations / Higher-dimensional linear rewriting and coherence in categorification and representation theory

Alleaume, Clément 25 June 2018 (has links)
Dans cette thèse, nous présentons des applications de la réécriture à l'étude de problèmes issus de la catégorification et de la théorie des représentations. En particulier, nous appliquons les méthodes de réécriture aux problèmes de cohérence dans les catégories linéaires et au calcul de décatégorifications. Des méthodes de réécriture ont été développées pour obtenir des résultats de cohérence dans les monoïdes et les catégories monoïdales présentés par des systèmes de réécriture nommés polygraphes. Ces constructions basées sur des résultats de Squier permettent en particulier de calculer des présentations cohérentes de catégories de dimension supérieure à partir des diagrammes de confluence de polygraphes convergents. Dans ce mémoire, nous étendons ces constructions pour obtenir des résultats de cohérence dans les catégories linéaires de dimension supérieure. Nous introduisons les polygraphes linéaires afin de présenter les catégories linéaires de dimension supérieure par des systèmes de réécriture. Nous étudions ensuite les propriétés de réécriture de ces systèmes. Nous donnons une description polygraphique du calcul de décatégorification de Grothendieck. Nous généralisons également la procédure de Knuth-Bendix appliquée aux polygraphes de dimension supérieure. Cette procédure permet de compléter des présentations de catégories de dimension supérieure n'admettant pas nécessairement d'ordre de terminaison induit par une orientation des règles. De plus, nous étudions des problèmes de cohérence dans les catégories de dimension supérieure. Etant donné un polygraphe confluent et quasi-terminant, nous introduisons une notion de complétion de Squier de ce polygraphe composée de diagrammes de décroissance. Nous prouvons que cette complétion rend asphérique la catégorie de dimension supérieure libre sur ce polygraphe. Ce résultat généralise un résultat de Squier au cas des présentations quasi-terminantes. Nous présentons enfin les applications des propriétés des polygraphes linéaire à l'étude de la catégorie AOB définie par Brundan, Comes, Nash et Reynolds. Nous retrouvons par des méthodes de réécriture les bases des espaces de morphismes de AOB exhibées par Brundan, Comes, Nash and Reynolds / In this thesis, we study applications of rewriting theory to categorification problems and representation theory. We apply rewriting methods to coherence problems in linear categories and computation of decategorifications.Proofs of coherence results for monoids and monoidal categories by rewriting methods are well known. In particular, several constructions based on Squier's results lead to the computation of coherent presentations of higher-dimensional categories from the confluence diagrams of convergent rewriting systems. In this memoir, we extend those constructions to coherence results for higher-dimensional linear categories.We introduce linear polygraphs to present higher-dimensional linear categories by rewriting systems. We then develop the main rewriting properties of these systems. We focus next on the applications of those properties to the study of categorification problems such that the computation of Grothendieck decategorification by rewriting methods. Another result we obtain on higher-dimensional polygraphs is a generalization of the Knuth-Bendix procedure to higher-dimensional polygraphs. This new procedure allows us to complete presentations of higher-dimensional categories which do not necessarily admit a termination order induced by any orientation of rules.We also study general coherence problems. Given a confluent and quasi-terminating polygraph, we define a globular extension of this polygraph called decreasing Squier's completion. We prove that this extension makes aspherical the free higher-dimensional category over the given polygraph. This result generalizes a result of Squier to the case of non terminating presentations.Finally, we focus on the applications of those properties to higher-dimensional linear categories such that the category AOB defined by Brundan, Comes, Nash and Reynolds. We find by rewriting methods the bases of the morphisms spaces of AOB that Brundan, Comes, Nash and Reynolds exhibited
38

Etude de la cohérence quantique dans le régime d'effet Hall quantique entier

Roulleau, Preden 19 November 2008 (has links) (PDF)
Ce travail est consacré à l'étude des processus de décohérence dans le régime Hall quantique entier. Le transport électronique se fait alors par un ou plusieurs canaux unidimensionnels chiraux le long du bord de l'échantillon, contrôlés par des lames séparatrices mésoscopiques ou contacts ponctuels quantiques. Un réglage fin de ces contacts ponctuels quantiques permet d'obtenir des interférences de la conductance. L'étude de la visibilité de ces oscillations nous permet de sonder la cohérence du système. Dans un premier temps, nous avons étudié la visibilité en fonction de la tension drain source lorsque le canal interne est réfléchi et avons observé une structure en lobe. Nous avons montré qu'en présence d'un seul lobe, une moyenne gaussienne de la phase permettait de comprendre cette structure en lobe. Lorsque le canal interne est transmis la visibilité en fonction de la tension devient monotone: on comprend ce résultat en tenant compte du couplage entre le canal externe et interne. Dans un deuxième temps nous avons étudié la dépendance en température de la visibilité sur des MZI de différentes tailles, avons extrait pour la première fois une mesure de la longueur de cohérence de phase en régime Hall quantique et avons montré qu'elle était proportionnelle à 1/T. Nous nous sommes ensuite intéressés à l'origine de cette longueur finie de cohérence de phase. Nous avons montré que les fluctuations thermiques du canal interne combinées au couplage entre canaux étaient la source de décohérence. Enfin dans une troisième expérience, nous avons obtenu la première réalisation expérimentale quantitative d'un objet largement utilisé en théorie: la "sonde en tension".
39

Tolérance aux pannes pour objets actifs asynchrones : modèle, protocole et expérimentations

Christian, Delbé 24 January 2007 (has links) (PDF)
L'objectif premier de cette thèse est de proposer un protocole de tolérance aux pannes par recouvrement arrière pour le modèle à objets actifs asynchrones communicants ASP (Asynchronous Sequential Processes) et son implémentation en Java ProActive. Cette thèse généralise la problématique soulevée par le développement de ce protocole : nous étudions le recouvrement d'une application répartie depuis un état global non cohérent. Nous proposons donc dans un premier temps un protocole par points de reprise et son implémentation ne supposant pas que les états globaux soient cohérents. Nous montrons à travers des expérimentations réalistes utilisant des applications réparties communicantes que notre solution et son implémentation présentent de bonnes performances. Nous contribuons aussi de manière plus générale à l'étude du recouvrement depuis un état global non cohérent en définissant formellement une nouvelle condition de recouvrabilité, la P-cohérence, basée sur la notion de promesse d'évènement. Cette définition s'intègre dans un formalisme événementiel capable de prendre en compte la sémantique de n'importe quel système ; elle est donc applicable dans un cadre général. En particulier, en appliquant ce formalisme au modèle ASP, nous prouvons la correction de notre protocole en montrant que les états globaux formés durant l'exécution sont toujours recouvrables. Enfin, nous contribuons plus spécifiquement au domaine des grilles de calcul en proposant une extension de notre protocole et son implémentation adaptée à ce contexte. Cette extension se base sur la constitution automatique de groupes de recouvrement au déploiement de l'application. Elle permet une répartition indépendante des mémoires stables et un confinement des effets d'une panne au seul groupe concerné.
40

Etats électroniques des boîtes quantiques de semiconducteur : rôle de l'environnement et couplage dépendant du spin

Jankovic, Aleksandar 29 November 2004 (has links) (PDF)
Après avoir calculé les états liés d'électrons et de trous dans une boîte quantique auto-organisée InAs/GaAs isolée, nous présentons certaines caractéristiques des propriétés optiques de ces nanostructures.<br /><br />Dans une premièm partie, nous étudions le rôle joué par l'environnement électrostatique sur la perte de cohérence dans les boîtes. Nous montrons que les fluctuations électrostatiques sont essentiellement de deux types, engendrant soit un décalage en énergie de la transition sans induire de déphasage, soit un élargissement homogène du type rétrécissement par le mouvement.<br /><br />Dans une deuxième partie, nous nous intéressons à l'effet de l'interaction d'échange longue portée sur la structure fine de l'exciton confiné dans la boîte. En particulier, nous montrons la possibilité d'annuler le splitting d'échange résultant de l'anisotropie de forme de la boîte en appliquant un champ électrique le long de son grand axe. Nous montrons enfin qu'une anisotropie de polarisation apparaît à cause de la nature même de l'interaction d'échange.

Page generated in 0.104 seconds