• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 311
  • 106
  • 32
  • 1
  • Tagged with
  • 451
  • 155
  • 83
  • 77
  • 69
  • 62
  • 61
  • 48
  • 41
  • 38
  • 38
  • 34
  • 34
  • 33
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
191

Étude de la connectivité cérébrale dans l’autisme adulte par l’analyse de la cohérence de l’EEG à l’éveil et en sommeil paradoxal

Léveillé, Cathy 11 1900 (has links)
L’autisme constitue un trouble neurodéveloppemental dont l’étiologie demeure inconnue. Les données en neuroimagerie des dernières années chez les autistes convergent vers l’observation d’une altération du transfert de l’information corticale entre les différentes régions du cerveau, plutôt qu’une atteinte sélective des structures cérébrales. Quelques modèles théoriques ont été postulés afin d’expliquer ces observations, sans toutefois unifier l’ensemble des observations. Les résultats de la littérature à ce sujet sont souvent hétérogènes et plusieurs disparités méthodologiques existent entre les études. Les conditions d’enregistrement variables et l’hétérogénéité des populations d’étude présentant souvent de multiples comorbidités limitent également leur comparaison. L’objectif de cette thèse était donc d’étudier la connectivité cérébrale de participants adultes avec autisme sans déficience intellectuelle, âgés entre 18 et 35 ans, par rapport à celle des participants neurotypiques, à l’aide d’un outil de mesure offrant une vision complémentaire à la neuroimagerie : la cohérence de l’électroencéphalographie (EEG). La cohérence de l’EEG est une méthode qui fournit de l’information quant à la synchronisation dans le temps entre paires de signaux électriques enregistrés à des sites néocorticaux distincts et constitue essentiellement une mesure de la connectivité fonctionnelle entre régions corticales. Dans cette thèse, nous avons exercé un contrôle rigoureux afin de s’assurer que nos résultats ne soient pas influencés par des variables confondantes et nous avons évalué nos participants durant le sommeil paradoxal (premier article) et lors de deux moments d’activation spontanés pendant lesquels le cortex est activé mais non sollicité, l’éveil calme yeux fermés, en soirée et au matin (deuxième article). Nous avons également évalué la relation entre les indices de cohérence significatifs à l’éveil dans le groupe avec autisme, en relation avec leurs symptômes cliniques aux questionnaires d’évaluation comportementale ADI-R et ADOS-G. Plusieurs des résultats significatifs obtenus dans cette recherche se sont avérés communs aux différents moments d’activation étudiés. En effet, l’observation d’une cohérence EEG supérieure impliquant l’aire visuelle gauche durant les états d’éveil ainsi que durant le SP semblent corroborer une certaine facilitation des régions visuelles chez les autistes par rapport au groupe contrôle. La présence d’une cohérence frontale gauche diminuée chez les participants autistes par rapport aux neurotypiques concorde avec les observations anatomiques et cliniques suggérant un déficit des fonctions cognitives impliquées dans cette région. La cohérence inter-hémisphérique frontale significativement diminuée chez les autistes par rapport aux contrôles à l’éveil du matin supporte pour sa part une altération des fibres calleuses qui pourrait être modulée par les changements développementaux associés à l’âge. Finalement, des corrélations significatives impliquant le nombre de symptômes cliniques et la cohérence EEG chez les autistes pourraient suggérer que des signes d’altération de la connectivité ont un impact sur le comportement diurne et la symptomatologie autistique. L’ensemble des résultats de cette thèse a donc permis d’approfondir les connaissances scientifiques concernant les dynamiques de connectivité cérébrale dans l’autisme et supportent l’hypothèse d’une organisation cérébrale atypique, distincte des neurotypiques, tant à l’éveil qu’au sommeil. / Autism is a neurodevelopmental disorder of unknown etiology. Converging neuroimaging data in the last years suggest that alteration in communication between regions within the autistic brain is governed by the cognitive functions associated with these regions rather than by their sheer physical distance. Some theoretical models were postulated to explain these observations, without unifying all of them. Results of the literature on this matter are often heterogeneous and several methodological disparities exist between the studies, moments and conditions of recording, and the heterogeneousness of the populations often presenting multiple comorbidity limit their interpretation. The objective of this thesis was to compare the brain connectivity of adult participants with autism (18-35 years old) without intellectual deficiency to neurotypical participants, by means of a measurement tool offering a complementary vision to the neuroimaging: the electroencephalography (EEG) coherence. The EEG coherence is a method which evaluates the synchronization in time between pairs of electrod signals recorded at different neocortical sites and constitutes essentially a measure of the functional connectivity between cortical regions. In this thesis, we exercised a rigorous control to make sure that our results are not influenced by staggering variables and we recorded our participants during REM sleep (first paper) and during two spontaneous moments of activation while the cortex is activated but not requested, waking resting state with closed eyes, during evening and morning (second paper). We also estimated the correlation between the significant EEG coherence results observed during waking state in the autism group, with their clinical symptoms on the behavioural questionnaires ADI-R and ADOS-G. Several of the significant results obtained in this research were common to all studied moments of brain activation. Indeed, the observation of a superior EEG coherence involving the left visual area during the waking states as well as during the REM sleep confirms a certain facilitation of the visual regions in the autistic group compared to the control group. The presence of a left frontal coherence decreased in the participants with autism compared to the neurotypicals supports anatomical and clinical observations suggesting a deficit of the cognitive functions involved in this region. The significantly decreased frontal inter-hemispheric coherence in the autistic group compared to the controls in the morning waking recording supports an alteration in the callosal fibers which could be modulated by developmental changes associated with age. Finally, significant correlations involving the number of clinical symptoms and the EEG coherence of autistic participants could suggest that alteration of connectivity has an impact on the diurnal behavior and the symptomatology. Thus the results of this thesis add to the scientific knowledge concerning the dynamics of cerebral connectivity in autism and support the hypothesis of an atypical brain organization, distinct from neurotypicals, both in the waking as in the sleep states.
192

L'émergence des limites à la liberté de tester en droit québécois : étude socio-juridique de la production du droit

Morin, Christine 07 1900 (has links)
"Thèse présentée à la Faculté des études supérieures en vue de l'obtention du grade de docteur en droit (LL.D.)". Cette thèse a été acceptée à l'unanimité et classée parmi les 10% des thèses de la discipline. / La liberté de tester au Québec a longtemps été qualifiée de « illimitée ». Dans les faits, une telle liberté signifiait que le de cujus pouvait ne rien laisser à son ou sa conjointe ni à ses enfants. Or, depuis l'introduction des dispositions législatives sur la prestation compensatoire et, plus particulièrement, de celles sur le patrimoine familial et sur la survie de l'obligation alimentaire, l'étendue de cette liberté n'est plus la même. Bien que les Québécois soient toujours libres de déterminer par testament à qui ils souhaitent léguer leurs biens, leur liberté est désormais limitée par ces dispositions législatives impératives qui permettent au conjoint survivant et à la famille immédiate du défunt de réclamer certaines sommes à la succession, et ce, quelles que soient les dernières volontés du de cujus. Ainsi, le patrimoine sur lequel s'exerce la liberté du testateur n'est plus forcément celui sur lequel le défunt pouvait exercer sa volonté pendant sa vie et son mariage. Il n'est donc plus possible de parler de liberté « illimitée» de tester des Québécois. Ce constat quant à l'émergence de restrictions à la liberté testamentaire dans le Code civil nous conduit à nous interroger sur les raisons et les fondements de cette transformation de la liberté de tester et, incidemment, sur la question plus générale de la production et de l'évolution du droit de la famille dans la société. Pour répondre à ce questionnement, cette thèse repose sur une approche socio-juridique selon laquelle il faut rechercher les fondements de l'évolution du droit à l'intérieur des représentations sociales valorisées dans une société et une époque données. Partant du postulat que ce sont les changements dans les représentations sociales qui contribuent à expliquer le passage d'une rationalité sociale à une rationalité juridique, cette thèse dégage par quels acteurs, suivant quelles logiques et dans quels buts ces restrictions à la liberté de tester ont été introduites dans le droit québécois. Une telle façon d'aborder l'évolution du droit à partir de l'évolution des représentations sociales contribue ainsi à « éclairer» l'idée communément véhiculée selon laquelle le droit reflète l'évolution des moeurs. Grâce à une étude des représentations sociales inscrites et retracées dans le discours des acteurs sociaux - mémoires déposés à l'Assemblée nationale, Journal des débats, commissions parlementaires, jurisprudence, doctrine, textes de loi - cette thèse montre que les changements qui ont conduit à restreindre la liberté de tester au Québec ne dépendent pas que des perceptions relatives à la famille et au patrimoine, tel qu'on le rapporte généralement. L'introduction de restrictions à la liberté de tester dans le Code civil semble plutôt résulter d'un compromis entre l'évolution des représentations sociales sur les rapports familiaux et l'évolution des représentations sociales sur le droit, plus précisément quant aux fonctions du droit dans la société et aux conditions de sa cohérence. L'analyse de cette évolution permet enfin d'observer que si le droit des successions a longtemps été une « composante » du droit des biens, il constitue désormais, surtout, une « composante» du droit de la famille. / Formerly the freedom of wiIling in Quebec was considered to be "unlimited", which meant that its scope was such that the deceased could refrain from bequeathing any property at aIl to his or her spouse or children. Following the introduction of legal measures on compensatory allowance and, more particularly, provisions concerning the family patrimony and the survival of the obligation of support, the scope of this freedom is no longer as alI-inclusive as it once was. Although Quebeckers remain free to determine via their last wiIls and testaments to whom they wish to bequeath their property, henceforth their margin of freedom is limited by the preceding legislative changes which entitle the surviving spouse and immediate family of the deceased to claim to certain amounts from the succession, whatever the last will of the deceased may have been. As such, the patrimony upon which the testator now exercises freedom has ceased necessarily to be that which the deceased had control over during his or her life and marriage. It is thus no longer possible to refer to Quebeckers' "unlimited freedom" of wiIling. The emergence of limitations in testamentary freedom in the Civil Code invites us to question the reasons and foundations for this shift in the freedom of willing and, incidentaIly, the more general issue of the reform and evolution offamily law in society. To address these issues, this thesis is founded upon a socio-Iegal approach according to which it is essential to seek out the basis of the evolution of law from within the social representations valued in a society at a given time in its history. Beginning from the postulate that it is the changes in social representations that help to explain the transition from a social rationality to a legal rationality, this thesis illustrates by what actors, foIlowing which lines of logic and to what end these limitations in the freedom of wiIling were introduced into Quebec law. Such an approach to the evolution of the law on the basis of social representations thereby helps "to enlighten" the commonly expressed idea whereby law is a mirror image of mores. Based upon an analysis of social representations recorded and retrieved in the discourse of different social actors, including briefs tabled before the National Assembly and proceedings in the Journal of Debates, parliamentary committees, as weIl as decided cases, doctrine and statutory texts, this thesis seeks to demonstrate how the changes which led to the restriction in testamentary freedom in Quebec extend far beyond perceptions evoking family and patrimony as is generaIly claimed. The introduction of limitations in the freedom of willing in the Civil Code seems rather to result from a compromise between the evolution in social representations regarding family relationships and the evolution in social representations regarding law, more specifically with regard to the functions of law in society and the conditions underlying the law's systemic coherence. Lastly the analysis of this evolution makes it possible to observe that while the law governing successions was for a long time a "component" of property law, henceforth it has specifically gravitated to being a "component" of family law.
193

Quand le problème est de définir le problème : les compétences mobilisées par les acteurs de la problématisation des projets de stage de coopération internationale

Devost, Catherine 11 1900 (has links)
Cette étude a été réalisée dans le cadre d’une maîtrise en Aménagement. Elle s’efforce à démontrer que l’étape d’un projet que l’on appelle problématisation, c’est-à-dire l’étape de construction des problèmes à être résolus, permet de s’assurer que les actions entreprises soient en cohérence et en pertinence avec le contexte du projet. Nous constatons désormais que nous ne pouvons plus nous contenter d’évaluer les projets sur la seule base de son efficience, c’est-à-dire la concordance de ses résultats avec les objectifs prévus. Dans ces circonstances, nous émettons l’hypothèse que la problématisation fait appel à des compétences particulières et généralement peu utilisées par rapport à d’autres étapes de la réalisation d’un projet. À cet égard, nous avons réalisé un travail de recherche exploratoire sur ce thème en ayant comme objectif d’obtenir une compréhension des compétences mobilisées lors de la problématisation en situation de projet en général et d’identifier plus spécifiquement ces compétences dans une situation de projet en particulier, celle des projets de coopération internationale. Pour y arriver, nous avons procédé à la construction d’un référentiel d’emploi et d’activités pour en déduire un référentiel de compétences de la problématisation. Pour ce faire, nous avons réalisé une étude de cas sur les projets de stage de coopération internationale. L’utilisation de la technique de l’« instruction au sosie » et d’une rechercheintervention nous ont permis de dégager les principaux résultats suivant: la problématisation fait appel à des compétences particulières de gestion de l’information et de médiation. Les compétences générales de problématisation que les responsables des stages dans les organisations de coopération internationale v doivent maîtriser sont : être capable de générer les disponibilités de projets à partir de données primaires et secondaires; être capable de faire des choix et de justifier ces choix en fonction de l’analyse des données; être capable de présenter des informations écrites claires, respectueuses des idées des partenaires en fonction du langage de projet utilisé par le public auquel s’adresse la proposition; être capable d’utiliser les commentaires des évaluateurs pour améliorer un projet et être capable de mener à terme un projet. La contribution principale de ce travail de recherche réside dans la proposition d’un outil précieux pour le recrutement et la sélection, l’évaluation du rendement, la formation et le perfectionnement des acteurs de la problématisation. / This study was realized within the framework of a master’s degree in Design and Complexity. It tries to demonstrate the importance of problem building in projects, allowing the action to be in coherence and in relevance with the context where the project takes place. From now on, we consider that the value of the project cannot be satisfied on the only basis of its efficiency, which means the concordance of the results with planned objectives. Consequently, this analysis relies on the assumption that problem building uses specific competencies usually unused compare to others steps during the process of project building. In this regard, an exploratory research was carried out on this subject with the objective of identifying skills during problem building, and more specifically identifying those competencies within a particular project, which are the international cooperation projects. To get there, we realized a table of reference of skills and competencies by using a case study that we did. That case study was based on small projects managed by international cooperation groups in Quebec. The use of both “instruction to the double” and research-intervention techniques allowed us to conclude to the following results: problem building needs specific skills of management of the information and mediation. The main skills of problem building are: the capacity of generating the availabilities of projects from primary and secondary data; the capacity of choosing and justifying these choices according to data analysis; the capacity of presenting clever written information, respectful of the ideas of the partners according to the language of project used by the public whom addresses the proposition; the capacity of using the comments of appraisers to improve a project and be capable of leading a project. vii The main contribution of this research lies in the proposition of a precious tool for the recruitment and the selection, the evaluation and the formation of the actors that conduct problem building.
194

La cohérence conceptuelle d’étudiants collégiaux en mécanique newtonienne et en métrologie

Périard, Martin 12 1900 (has links)
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée. / This thesis evaluates the coherence of the conceptual network demonstrated by college students in life and applied sciences. This evaluation was based on the analysis of Burt tables issuing from multiple choice questionnaires, on the creation and careful examination of a novel tool, the matrix of specific discrimination coefficients, which will be described in the main text, and on the qualitative analysis of actual laboratory work of students doing an experimentation. At the completion of this project, four research axis have been explored. 1) What is the conceptual coherence demonstrated in Newtonian mechanics? 2) Is the mastery of uncertainty quantification related to the development of logical thinking or to mathematical competency? 3) What is the conceptual coherence demonstrated in the quantification of experimental uncertainty? 4) What are the concrete procedures utilized by students to quantify experimental uncertainty in a semi-directed laboratory context? The main conclusions that emerged from each axis of research can be summerized as follow. 1) The most prevalent erroneous conceptions are not solidly set in a rigid conceptual network. For example, a student successful in a question about Newton’s third law (the most difficult subject of the Force Concept Inventory) is just slightly more likely to succeed in another related question than the other participants. Many pairs of questions displays a negative specific discrimination coefficient demonstrating a weak conceptual coherence in pre-test and a somewhat ameliorated conceptual coherence in post-test. 2) If a small proportion of students has demonstrated marked deficiencies in questions related with control of variable and in those related to the relationship between the graphical display of experimental data and a mathematical model, the majority of students can be considered as adequately mastering those subjects. However, almost every student demonstrated a lack of mastery of concepts underlying the quantification of experimental uncertainty and the propagation of uncertainty (heretofore referred to as metrology). No statistically significant correlation has been observed between the three main topics suggesting that they are largely independent cognitive abilities. Burt table has demonstrated a greater degree of conceptual coherence between control of variables questions than suggested by Pearson correlation coefficients. Equivalent question in the topic of metrology did not permit to demonstrate a clear conceptual coherence. 3) Analysis of a questionnaire entirely devoted to metrology has shown erroneous conceptions caused by prior learning (didactical obstacles), erroneous conceptions based on intuitive models and a lack of global comprehension of metrological concepts although some appear to be almost acquired. 4) When doing real experiments in semi-directed laboratory, students demonstrated the same difficulty identified in the questionnaire of 3) which could interpreted as corroborating previously obtaine results. However, many unanticipated behaviors related to measurement were observed that could not have been anticipated solely by analyzing answers in the multiple-choice questionnaire. Interviews immediately following each semi-directed laboratory permitted the participants to detail certain aspects of their metrological methodology. Most notably, the use of repeated measurement strategies, their « spontaneous » strategies to quantify uncertainty, and their explanation of numerical estimates of reading uncertainties. Overall, uncertainty propagation algorithms were adequately employed. Many erroneous metrological conceptions seem to resist strongly to be modified by learning. Among others, assignation of the resolution of a digital scale as the uncertainty value and the lack of stacking strategies to diminish uncertainty. The conception that a numerical value cannot be more precise than the tolerance of an instrument seems firmly set.
195

L'effet de la psychoneurothérapie sur l'activité électrique du cerveau d'individus souffrant du trouble dépressif majeur unipolaire

Paquette, Vincent January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
196

Complexité des homomorphismes de graphes avec listes

Lemaître, Adrien 04 1900 (has links)
Les problèmes de satisfaction de contraintes, qui consistent à attribuer des valeurs à des variables en respectant un ensemble de contraintes, constituent une large classe de problèmes naturels. Pour étudier la complexité de ces problèmes, il est commode de les voir comme des problèmes d'homomorphismes vers des structures relationnelles. Un axe de recherche actuel est la caractérisation des classes de complexité auxquelles appartient le problème d'homomorphisme, ceci dans la perspective de confirmer des conjectures reliant les propriétés algébriques des structures relationelles à la complexité du problème d'homomorphisme. Cette thèse propose dans un premier temps la caractérisation des digraphes pour lesquels le problème d'homomorphisme avec listes appartient à FO. On montre également que dans le cas du problèmes d'homomorphisme avec listes sur les digraphes télescopiques, les conjectures reliant algèbre et complexité sont confirmées. Dans un deuxième temps, on caractérise les graphes pour lesquels le problème d'homomorphisme avec listes est résoluble par cohérence d'arc. On introduit la notion de polymorphisme monochromatique et on propose un algorithme simple qui résoud le problème d'homomorphisme avec listes si le graphe cible admet un polymorphisme monochromatique TSI d'arité k pour tout k ≥ 2. / Constraint satisfaction problems, consisting in assigning values to variables while respecting a set of constraints, form a large class of natural problems. In order to study the complexity of these problems, it is convenient to see them as homomorphism problems on relational structures. One current research topic is to characterise complexity classes where the homomorphism problem belongs. The ultimate goal is to confirm conjectures that bind together algebraic properties of the relationnal structure and complexity of the homomorphism problem. At first, the thesis characterizes digraphs which generate FO list-homomorphism problems. It is shown that in the particular case of telescopic digraphs, conjectures binding together algebra and complexity are confirmed. Subsequently, we characterize graphs which generate arc-consistency solvable list-homomorphism problems. We introduce the notion of monochromatic polymorphism and we propose a simple algorithm which solves the list-homomorphism problem if the target graph admits a monochromatic TSI polymorphism of arity k for every k ≥ 2.
197

A psychophysical assessment of visual motion processing among high-functioning persons with autism

Bertone, Armando January 2004 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
198

Diagnostic distribué de systèmes respectant la confidentialité / Distributed diagnosis of systems respecting privacy

Armant, Vincent 27 September 2012 (has links)
Dans cette thèse, nous nous intéressons à diagnostiquer des systèmes intrinsèquement distribués (comme les systèmes pairs-à-pairs) où chaque pair n'a accès qu'à une sous partie de la description d'un système global. De plus, en raison d'une politique d'accès trop restrictive, il sera pourra qu'aucun pair ne puisse expliquer le comportement du système global. Dans ce contexte, le challenge du diagnostic distribué est le suivant: expliquer le comportement global d'un système distribué par un ensemble de pairs ayant chacun une vision limitée, tout comme l'aurait fait un unique pair diagnostiqueur ayant, lui, une vision globale du système.D'un point de vue théorique, nous montrons que tout nouveau système, logiquement équivalent au système pair-à-pairs initialement observé, garantit que tout diagnostic local d'un pair pourra être prolongé par un diagnostic global (dans ce cas, le nouveau système est dit correct pour le diagnostic distribué).Nous montrons aussi que si ce nouveau système est structuré (c-à-d: il contient un arbre couvrant pour lequel tous les pairs contenant une même variable forme un graphe connecté) alors il garantit que tout diagnostic global pourra être retrouvé à travers un ensemble de diagnostics locaux des pairs (dans ce cas le nouveau système est dit complet pour le diagnostic distribué).Dans un souci de représentation succincte et afin de respecter la politique de confidentialité du vocabulaire de chacun des pairs, nous présentons un nouvel algorithme Token Elimination (TE), qui décompose le système de pairs initial vers un système structuré.Nous montrons expérimentalement que TE produit des décompositions de meilleurs qualité (c-à-d: de plus petites largeurs arborescentes) que les méthodes envisagées dans un contexte distribué. À partir du système structuré construit par TE, nous transformons chaque description locale en une Forme Normale Disjonctive (FND) globalement cohérente.Nous montrons que ce dernier système garantit effectivement un diagnostic distribué correct et complet. En plus, nous exhibons un algorithme capable de vérifier efficacement que tout diagnostic local fait partie d'un diagnostic minimal global, faisant du système structuré de FNDs un système compilé pour le diagnostic distribué. / In this thesis, we focus on diagnosing inherently distributed systems such as peer-to-peer, where each peer has access to only a sub-part of the description of an overall system.In addition, due to a too restrictive access control policy, it can be possible that neither peer nor supervisor is able to explain the behaviour of the overall system.The goal of distributed diagnosis is to explain the behaviour of a distributed system by a set of peers (each having a limited local view) as a single diagnosis engine having a global view of the overall system.First, we show that any new system logically equivalent to the initially observed peer-to-peer setting ensures that all diagnosis of a peer may be extended to a global diagnosis (in this case the new system ensures correctness of the distributed diagnosis).Moreover, we prove that if the new system is structured (i.e.it contains a spanning tree for which all peers containing the same variable form a connected graph) then it ensures that any global diagnosis can be found through a set of local diagnoses (in this case the new system ensures the completeness of the distributed diagnoses).For a succinct representation and in order to comply with the privacy policy of the vocabulary of each peer, we present a new algorithm Token Elimination (TE), which decomposes the original peer system to a structured one.We experimentally show that TE produces better quality decompositions (i.e. smaller tree widths) than proposed methods in a distributed context.From the structured system built by TE, we transform each local description into globally consistent DNF.We demonstrate that the latter system is correct and complete for the distributed diagnosis.Finally, we present an algorithm that can effectively check that any local diagnosis is part of a global minimal diagnosis, turning the structured system of DNFs into a compiled system for distributed diagnosis.
199

Schéma de Cohérence Territoriale (SCOT) et développement durable en France : enseignements à partir des cas grenoblois et montpelliérain / Non communiqué

Moscarelli, Fernanda 01 July 2013 (has links)
Le Schéma de Cohérence Territoriale (SCoT) est l’instrument central de l’aménagement communautaire urbain français, qui associe le rôle d’assemblage de plusieurs politiques sectorielles et de coordination multi-scalaire aux objectifs de conception de villes durables. Il est donc souhaité que les SCoTs soient capables : a) d’améliorer les procédures par l’instauration de territoires de planification mieux adaptés aux enjeux, b) d’élargir le dialogue entre acteurs et société civile et, finalement c) d’agir pour la « soutenabilité » des villes. Ainsi, les enseignements tirés de ce travail concernent à la fois la traduction du référentiel « ville durable » et l’analyse des modalités de création de la décision par les acteurs lors de l’élaboration des SCoTs. Ces analyses, réalisées à partir de deux cas (la communauté d’agglomération de Montpellier CAM et la région urbaine grenobloise RUG), s’appuient sur l’étude du contenu des deux SCoTs ainsi que d’autres sources documentaires, sur des entretiens avec des acteurs et sur l’observation des ateliers de travail et réunions délibératives lors de l’élaboration du document. Cette étude met en évidence la constitution d’une vision planificatrice à une échelle plus large que celle traitée par la planification antérieurement, une meilleur prise en compte des enjeux environnementaux et une meilleure maîtrise de l’étalement urbain par les deux SCoTs, agissant pour la construction de villes plus durables. Cependant, les SCoTs sont différents quant à la construction du périmètre de projet, plus cohérent et durable dans la RUG que dans la CAM, et quant à leur équilibre démocratique lors de la prise de décision. Cela est dû à leurs contextes particuliers, qu’influent autant, ou même plus, que les SCoTs, dans l’efficacité de l’action publique. / The Territorial Coherence Plan (Schéma de Cohérence Territoriale - SCoT) is the central French urban planning instrument of intercommunity, which combines the management of several sectorial policies and multi-scalar coordination with the objectives of designing more sustainable cities. Therefore, the SCoTs are expected: a) to help improving the planning procedures through the institution of better adapted territories to challenges, b) the dialogue between actors and civil society and, finally, c) to act for the sustainability of cities. Thus, the lessons learnt from this work relate to the translation of "sustainable city" reference system and analyzes the decision making process by stakeholders during the development of the SCoTs. These analyzes, carried through two study cases (the urban intercommunity of Montpellier “Communauté d’agglomération de Montpellier CAM and the urban region of Grenoble “region urbaine grenobloise” RUG), are based on the analysis of the content of two Scots and other documentary sources, on interviews with actors and on observation of workshops and deliberative meetings during the development of the document. This study highlights the development of a planner based on a larger planning scale vision, the better consideration of environmental issues and control urban sprawl by two SCoTs, acting for building more sustainable cities. However, the SCoTs are different relating to the construction of the project perimeter, more coherent and sustainable in the RUG than in the CAM, and relating to their democratic balance in decision-making. This is due to their specific contexts that sometimes become more influential than the Scots, in the effectiveness of public action.
200

Mise en correspondance robuste et détection de modèles visuels appliquées à l'analyse de façades / Robust feature correspondence and pattern detection for façade analysis

Ok, David 25 March 2013 (has links)
Depuis quelques années, avec l'émergence de larges bases d'images comme Google Street View, la capacité à traiter massivement et automatiquement des données, souvent très contaminées par les faux positifs et massivement ambiguës, devient un enjeu stratégique notamment pour la gestion de patrimoine et le diagnostic de l'état de façades de bâtiment. Sur le plan scientifique, ce souci est propre à faire avancer l'état de l'art dans des problèmes fondamentaux de vision par ordinateur. Notamment, nous traitons dans cette thèse les problèmes suivants: la mise en correspondance robuste, algorithmiquement efficace de caractéristiques visuelles et l'analyse d'images de façades par grammaire. L'enjeu est de développer des méthodes qui doivent également être adaptées à des problèmes de grande échelle. Tout d'abord, nous proposons une formalisation mathématique de la cohérence géométrique qui joue un rôle essentiel pour une mise en correspondance robuste de caractéristiques visuelles. A partir de cette formalisation, nous en dérivons un algorithme de mise en correspondance qui est algorithmiquement efficace, précise et robuste aux données fortement contaminées et massivement ambiguës. Expérimentalement, l'algorithme proposé se révèle bien adapté à des problèmes de mise en correspondance d'objets déformés, et à des problèmes de mise en correspondance précise à grande échelle pour la calibration de caméras. En s'appuyant sur notre algorithme de mise en correspondance, nous en dérivons ensuite une méthode de recherche d'éléments répétés, comme les fenêtres. Celle-ci s'avère expérimentalement très efficace et robuste face à des conditions difficiles comme la grande variabilité photométrique des éléments répétés et les occlusions. De plus, elle fait également peu d'hallucinations. Enfin, nous proposons des contributions méthodologiques qui exploitent efficacement les résultats de détections d'éléments répétés pour l'analyse de façades par grammaire, qui devient substantiellement plus précise et robuste / For a few years, with the emergence of large image database such as Google Street View, designing efficient, scalable, robust and accurate strategies have now become a critical issue to process very large data, which are also massively contaminated by false positives and massively ambiguous. Indeed, this is of particular interest for property management and diagnosing the health of building fac{c}ades. Scientifically speaking, this issue puts into question the current state-of-the-art methods in fundamental computer vision problems. More particularly, we address the following problems: (1) robust and scalable feature correspondence and (2) façade image parsing. First, we propose a mathematical formalization of the geometry consistency which plays a key role for a robust feature correspondence. From such a formalization, we derive a novel match propagation method. Our method is experimentally shown to be robust, efficient, scalable and accurate for highly contaminated and massively ambiguous sets of correspondences. Our experiments show that our method performs well in deformable object matching and large-scale and accurate matching problem instances arising in camera calibration. We build a novel repetitive pattern search upon our feature correspondence method. Our pattern search method is shown to be effective for accurate window localization and robust to the potentially great appearance variability of repeated patterns and occlusions. Furthermore, our pattern search method makes very few hallucinations. Finally, we propose methodological contributions that exploit our repeated pattern detection results, which results in a substantially more robust and more accurate façade image parsing

Page generated in 0.0404 seconds