Spelling suggestions: "subject:"complexité."" "subject:"complexités.""
291 |
Bases cérébrales de la perception auditive simple et complexe dans l’autismeSamson, Fabienne 11 1900 (has links)
La perception est décrite comme l’ensemble des processus permettant au cerveau de recueillir et de traiter l’information sensorielle. Un traitement perceptif atypique se retrouve souvent associé au phénotype autistique habituellement décrit en termes de déficits des habilités sociales et de communication ainsi que par des comportements stéréotypés et intérêts restreints. Les particularités perceptives des autistes se manifestent à différents niveaux de traitement de l’information; les autistes obtiennent des performances supérieures à celles des non autistes pour discriminer des stimuli simples, comme des sons purs, ou encore pour des tâches de plus haut niveau comme la détection de formes enchevêtrées dans une figure complexe.
Spécifiquement pour le traitement perceptif de bas niveau, on rapporte une dissociation de performance en vision. En effet, les autistes obtiennent des performances supérieures pour discriminer les stimuli définis par la luminance et inférieures pour les stimuli définis par la texture en comparaison à des non autistes. Ce pattern dichotomique a mené à l’élaboration d’une hypothèse suggérant que l’étendue (ou complexité) du réseau de régions corticales impliquées dans le traitement des stimuli pourrait sous-tendre ces différences comportementales. En effet, les autistes obtiennent des performances supérieures pour traiter les stimuli visuels entièrement décodés au niveau d’une seule région corticale (simples) et inférieures pour les stimuli dont l’analyse requiert l’implication de plusieurs régions corticales (complexes).
Un traitement perceptif atypique représente une caractéristique générale associée au phénotype autistique, avec de particularités rapportées tant dans la modalité visuelle qu’auditive. Étant donné les parallèles entre ces deux modalités sensorielles, cette thèse vise à vérifier si l’hypothèse proposée pour expliquer certaines particularités du traitement de l’information visuelle peut possiblement aussi caractériser le traitement de l’information auditive dans l’autisme.
Le premier article (Chapitre 2) expose le niveau de performance des autistes, parfois supérieur, parfois inférieur à celui des non autistes lors du traitement de l’information auditive et suggère que la complexité du matériel auditif à traiter pourrait être en lien avec certaines des différences observées.
Le deuxième article (Chapitre 3) présente une méta-analyse quantitative investiguant la représentation au niveau cortical de la complexité acoustique chez les non autistes. Ce travail confirme l’organisation fonctionnelle hiérarchique du cortex auditif et permet d’identifier, comme en vision, des stimuli auditifs pouvant être définis comme simples et complexes selon l’étendue du réseau de régions corticales requises pour les traiter.
Le troisième article (Chapitre 4) vérifie l’extension des prédictions de l’hypothèse proposée en vision au traitement de l’information auditive. Spécifiquement, ce projet compare les activations cérébrales sous-tendant le traitement des sons simples et complexes chez des autistes et des non autistes. Tel qu’attendu, les autistes montrent un patron d’activité atypique en réponse aux stimuli complexes, c’est-à-dire ceux dont le traitement nécessitent l’implication de plusieurs régions corticales.
En bref, l’ensemble des résultats suggèrent que les prédictions de l’hypothèse formulée en vision peuvent aussi s’appliquer en audition et possiblement expliquer certaines particularités du traitement de l’information auditive dans l’autisme. Ce travail met en lumière des différences fondamentales du traitement perceptif contribuant à une meilleure compréhension des mécanismes d’acquisition de l’information dans cette population. / Perception involves the processes allowing the brain to extract and understand sensory information. Atypical perceptual processing has been associated with the autistic phenotype usually described in terms of impairments in social and communication abilities, as well as restricted interests and repetitive behaviours. Perceptual atypicalities are reported across a range of tasks. For instance, superior performance in autistics compared to non autistics is observed for pure tone discrimination as well as for complex figure disembodying tasks.
One particular study reported atypical low-level visual processing in autism. In this experiment, autistics displayed enhanced performance for identifying the orientation of luminance-defined gratings and inferior performance for texture-defined gratings in comparison to non autistics. This dichotomous pattern led to the formulation of a hypothesis suggesting an inverse relation between the level of performance and the extent (or complexity) of the cortical network required for processing the stimuli. Specifically, autistics would perform better than non autistics during processing visual stimuli involving one cortical region (luminance-defined or simple stimuli), while they would show decreased performance for processing stimuli involving a network of cortical region (texture-defined or complex stimuli).
Atypical perceptual processing is described as a general feature associated with the autistic phenotype and is reported for both the visual and the auditory modalities. Considering the existing parallels between the two sensory modalities, the principal purpose of the presented doctoral dissertation it to verify whether the hypothesis proposed to explain atypical visual processing in autism could also apply to audition.
The first article (Chapter 2) is an exhaustive literature review of studies on autistics’ auditory processing abilities. Taken together, the results suggest that the level of performance of autistics on auditory tasks could be related to the acoustic complexity of the stimuli.
The second article (Chapter 3) uses quantitative meta-analysis to investigate how auditory complexity is represented at the cortical level in non autistics. This study confirms the hierarchical functional organization of the auditory cortex and allows defining simple and complex auditory stimuli based on the extent of the cortical network involved in their processing, as it was done in vision.
The third article (Chapter 4) verifies if the predictions of the hypothesis proposed in vision could also apply in audition. Specifically, this study examines the cortical auditory response to simple and complex sounds in autistics and non autistics. As expected, autistics display atypical cortical activity in response to complex auditory material that is stimuli involving a network of multiple cortical regions to be processed.
In sum, the studies in this dissertation indicate that the predictions of the hypothesis proposed in vision could extend to audition and possibly explain some of the atypical behaviours related to auditory processing in autism. This thesis demonstrates fundamentally different auditory cortical processing in autistics that could help define a general model of perceptual differences in autism which could represent a key factor in the understanding of information acquisition.
|
292 |
Étude de la dynamique hémisphérique pour le traitement des mots chez les gauchers et les droitiersTremblay, Tania January 2009 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
|
293 |
Les enjeux de la régulation dans un système complexe : le cas du Régime général d'assurance médicaments du Québec (RGAM)Cambourieu, Caroline 03 1900 (has links)
En 1997, dans un souci de justice sociale et de solidarité entre tous les québécois, le gouvernement a instauré un Régime général d’assurance médicaments (RGAM) devant permettre de fournir à moindre coût et de manière équitable, des médicaments prescrits assurant une meilleure prise en charge de la maladie des individus. Depuis sa mise en place, le rythme soutenu d’évolution des coûts des médicaments remboursés par le Régime est le sujet d’un nombre croissant de débats. Le Québec ne fait pas figure d’exception car au cours des dernières décennies, la croissance des dépenses de médicaments des régimes d’assurance médicaments des pays industrialisés a connu un rythme de progression élevé, cela malgré l’instauration successive de mécanismes de régulation ciblant une utilisation optimale des médicaments et un meilleur contrôle de la trajectoire de leurs dépenses.
La recherche propose une réflexion sur les cadres communs d’action dans lesquels ces outils de régulation sont implantés et évoluent. Elle s’intéresse à l’ensemble des facteurs relationnels et contextuels qui les constituent. Le devis de recherche s’appuie sur une étude de cas unique qu’est le processus menant à l’utilisation du médicament prescrit couvert par le RGAM. Il se compose de trois unités d’analyse identifiées comme étant des cibles importantes de régulation : l’inscription du médicament à la liste du RGAM, la prescription et l’accès au médicament couvert par le Régime. La perspective conceptuelle retenue est celle de l’analyse stratégique de Crozier et Friedberg (1987). La démarche analytique s’appuie sur des entrevues réalisées auprès des régulateurs, de fabricants de médicaments brevetés et de génériques, de médecins, de pharmaciens et de patients impliqués dans l’utilisation des médicaments remboursés par le RGAM et sur une revue du cadre réglementaire concernant ces acteurs, le médicament d’ordonnance et le RGAM.
La recherche décrit et analyse la structuration du processus menant à l’utilisation du médicament couvert par le RGAM. Elle conduit au développement d’un construit organisationnel- le système d’action concret- fondé sur les interdépendances des cinq groupes d’acteurs et les relations de pouvoir qu’ils entretiennent entre eux. Ceux-ci évoluent dans des contextes organisationnels singuliers constitués d’enjeux, de stratégies et de ressources. Ils développent diverses stratégies pour accroître leurs possibilités d’action (capacités stratégiques) face aux problèmes qu’ils ont à résoudre. Les capacités stratégiques, inégales entre les groupes d’acteurs, découlent des relations de pouvoir qu’ils exercent entre eux et les amènent à occuper des positions différentes dans le système d’action concret. La recherche démontre qu’en fonction des capacités stratégiques dont ils disposent, les acteurs sont portés à s’approprier certaines règles en tentant de les influencer, de les contourner ou de ne pas les respecter.
La connaissance empirique des cadres communs d’action permet d’établir les bases d’un système d’action concret dans un contexte de « phénomène organisation » (Friedberg, 1997). Cette connaissance d’une part, établit que les retombées de certaines stratégies d’acteurs peuvent s’avérer peu compatibles avec les objectifs du RGAM et, d’autre part, pose les limites de certains mécanismes de régulation en vigueur tout en questionnant les façons de concevoir la régulation dans un système complexe. / In 1997, the Quebec government, in its desire for social justice and solidarity among all Quebecers, introduced the Régime général d’assurance médicaments (General Prescription Drug Insurance Plan) (RGAM) to provide reasonable and fair access to medication to better manage the health of individuals. Since the establishment of the Plan, the steady rise in drug costs has been the subject of a growing number of debates. Quebec is not an exception because in recent decades, the increase in drug expenditures of drug plans in industrialized countries has grown exponentially despite the successive introduction of regulatory mechanisms aiming to better control drug use and its expenditure trajectory.
The study proposes a reflection on the common frameworks of action in which the regulatory mechanisms of prescription drug expenditures covered by the RGAM are established and evolve. The study focuses on the set of relational and contextual factors that constitute these frameworks. The research design is based on a single case study, that of the process leading to the use of prescription drugs covered by the RGAM. It consists of three units of analysis identified as important targets of regulation: registration of medications on the RGAM drug list, prescription, and access to medications covered by the Plan. The conceptual perspective adopted is the strategic analysis of Crozier & Friedberg (1987). The analysis is based on interviews with regulators, manufacturers of patented drugs and generics, physicians, pharmacists, and patients involved in the use of medications reimbursed by the RGAM, and on a review of the regulatory system concerning these actors, prescription drugs, and the RGAM.
The study describes and analyzes the structure of the process leading to the use of medications covered by the RGAM. The study leads to the development of an organizational construct—a concrete action system—based on the interdependencies of the five groups of actors and the power relations that exist between them. These actors operate in unique organizational contexts consisting of challenges, strategies, and resources. The actors develop various strategies to increase their possibilities for action (strategic capabilities) toward the problems they must solve. These strategic capabilities, which are unequal between the groups of actors, stem from the power relations that exist between the actors and lead them to occupy different positions in the concrete action system. The study demonstrates that, based on the strategic capabilities they have, the actors are likely to appropriate certain rules by attempting to influence them, circumvent them, or not respect them.
Empirical knowledge of the common frameworks of action allows establishing the basis for a concrete action system in the context of the “organization phenomenon” (Friedberg, 1997). This knowledge, on the one hand, establishes that the impact of certain strategies of the actors may be incompatible with the objectives of the RGAM, and on the other hand, imposes limits on certain regulatory mechanisms in force, while questioning how regulations are conceived in a complex system.
|
294 |
Complexité raffinée du problème d'intersection d'automatesBlondin, Michael 01 1900 (has links)
Le problème d'intersection d'automates consiste à vérifier si plusieurs automates finis déterministes acceptent un mot en commun. Celui-ci est connu PSPACE-complet (resp. NL-complet) lorsque le nombre d'automates n'est pas borné (resp. borné par une constante).
Dans ce mémoire, nous étudions la complexité du problème d'intersection d'automates pour plusieurs types de langages et d'automates tels les langages unaires, les automates à groupe (abélien), les langages commutatifs et les langages finis.
Nous considérons plus particulièrement le cas où chacun des automates possède au plus un ou deux états finaux. Ces restrictions permettent d'établir des liens avec certains problèmes algébriques et d'obtenir une classification intéressante de problèmes d'intersection d'automates à l'intérieur de la classe P. Nous terminons notre étude en considérant brièvement le cas où le nombre d'automates est fixé. / The automata non emptiness intersection problem is to determine whether several deterministic finite automata accept a word in common. It is known to be PSPACE-complete (resp. NL-complete) whenever the number of automata is not bounded (resp. bounded by a constant).
In this work, we study the complexity of the automata intersection problem for several types of languages and automata such as unary languages, (abelian) group automata, commutative languages and finite languages. We raise the issue of limiting the number of final states to at most two in the automata involved.
This way, we obtain relationships with some algebraic problems and an interesting classification of automata intersection problems inside the class P. Finally, we briefly consider the bounded version of the automata intersection problem.
|
295 |
Un modèle à criticalité auto-régulée de la magnétosphère terrestreVallières-Nollet, Michel-André January 2009 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
|
296 |
Échantillonnage des distributions continues non uniformes en précision arbitraire et protocole pour l'échantillonnage exact distribué des distributions discrètes quantiquesGravel, Claude 03 1900 (has links)
La thèse est divisée principalement en deux parties. La première partie regroupe les chapitres 2 et 3. La deuxième partie regroupe les chapitres 4 et 5. La première partie concerne l'échantillonnage de distributions continues non uniformes garantissant un niveau fixe de précision. Knuth et Yao démontrèrent en 1976 comment échantillonner exactement n'importe quelle distribution discrète en n'ayant recours qu'à une source de bits non biaisés indépendants et identiquement distribués. La première partie de cette thèse généralise en quelque sorte la théorie de Knuth et Yao aux distributions continues non uniformes, une fois la précision fixée. Une borne inférieure ainsi que des bornes supérieures pour des algorithmes génériques comme l'inversion et la discrétisation figurent parmi les résultats de cette première partie. De plus, une nouvelle preuve simple du résultat principal de l'article original de Knuth et Yao figure parmi les résultats de cette thèse. La deuxième partie concerne la résolution d'un problème en théorie de la complexité de la communication, un problème qui naquit avec l'avènement de l'informatique quantique. Étant donné une distribution discrète paramétrée par un vecteur réel de dimension N et un réseau de N ordinateurs ayant accès à une source de bits non biaisés indépendants et identiquement distribués où chaque ordinateur possède un et un seul des N paramètres, un protocole distribué est établi afin d'échantillonner exactement ladite distribution. / The thesis is divided mainly into two parts. Chapters 2 and 3 contain the first part. Chapters 4 and 5 contain the second part. The first part is about sampling non uniform continuous distributions with a given level of precision. Knuth and Yao showed in 1976 how to sample exactly any discrete distribution using a source of unbiased identically and independently distributed bits. The first part of this thesis extends the theory of Knuth and Yao to non uniform continuous distributions once the precision is fixed. A lower bound and upper bounds for generic algorithms based on discretization or inversion are given as well. In addition, a new simple proof of the original result of Knuth and Yao is given here. The second part is about the solution of a problem in communication complexity that originally appeared within the field of quantum information science. Given a network of N computers with a server capable of generating random unbiased bits and a parametric discrete distribution with a vector of N real parameters where each computer owns one and only one parameter, a protocol to sample exactly the distribution in a distributed manner is given here.
|
297 |
A psychophysical assessment of visual motion processing among high-functioning persons with autismBertone, Armando January 2004 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
298 |
Sur des problèmes topologiques de la géométrie systolique. / On some topological problems of systolic geometry.Bulteau, Guillaume 18 December 2012 (has links)
Soit G un groupe de présentation finie. Un résultat de Gromov affirme l'existence de cycles géométriques réguliers qui représentent une classe d'homologie non nulle h dans le énième groupe d'homologie à coefficients entiers de G, cycles géométriques dont le volume systolique est aussi proche que souhaité du volume systolique de h. Ce théorème, dont aucune démonstration exhaustive n'avait été faite, a servi à obtenir plusieurs résultats importants en géométrie systolique. La première partie de cette thèse est consacrée à une démonstration complète de ce résultat. L'utilisation de ces cycles géométriques réguliers est connue sous le nom de technique de régularisation. Cette technique permet notamment de relier le volume systolique de certaines variétés fermées à d'autres invariants topologiques de ces variétés, tels que les nombres de Betti ou l'entropie minimale. La seconde partie de cette thèse propose d'examiner ces relations, et la mise en oeuvre de la technique de régularisation.La troisième partie est consacrée à trois problèmes liés à la géométrie systolique. Dans un premier temps on s'intéresse à une inégalité concernant les tores pleins plongés dans l'espace tridimensionnel. Puis, on s'intéresse ensuite aux triangulations minimales des surfaces compactes, afin d'obtenir des informations sur le volume systolique de ces surfaces. Enfin, on présente la notion de complexité simpliciale d'un groupe de présentation finie, et ses liens avec la géométrie systolique. / Let G be a finitely presented group. A theorem of Gromov asserts the existence of regular geometric cycles which represent a non null homology class h in the nth homology group with integral coefficients of G, geometric cycles which have a systolic volume as close as desired to the systolic volume of h. This theorem, of which no complete proof has been given, has lead to major results in systolic geometry. The first part of this thesis is devoted to a complete proof of this result.The regularizationtechnique consists in the use of these regular geometric cycles to obtain information about the class $h$. This technique allows to link the systolic volume of some closed manifolds to homotopical invariants of these manifolds, such as the minimal entropy and the Betti numbers. The second part of this thesis proposes to investigate these links.The third part of this thesis is devoted to three problems of systolic geometry. First we are investigating an inequality about embeded tori in $R^3$. Second, we are looking into minimal triangulations of compact surfaces and some information they can provide in systolic geometry. And finally, we are presenting the notion of simplicial complexity of a finitely-presented group and its links with the systolic geometry.
|
299 |
Computations on Massive Data Sets : Streaming Algorithms and Two-party Communication / Calculs sur des grosses données : algorithmes de streaming et communication entre deux joueursKonrad, Christian 05 July 2013 (has links)
Dans cette thèse on considère deux modèles de calcul qui abordent des problèmes qui se posent lors du traitement des grosses données. Le premier modèle est le modèle de streaming. Lors du traitement des grosses données, un accès aux données de façon aléatoire est trop couteux. Les algorithmes de streaming ont un accès restreint aux données: ils lisent les données de façon séquentielle (par passage) une fois ou peu de fois. De plus, les algorithmes de streaming utilisent une mémoire d'accès aléatoire de taille sous-linéaire dans la taille des données. Le deuxième modèle est le modèle de communication. Lors du traitement des données par plusieurs entités de calcul situées à des endroits différents, l'échange des messages pour la synchronisation de leurs calculs est souvent un goulet d'étranglement. Il est donc préférable de minimiser la quantité de communication. Un modèle particulier est la communication à sens unique entre deux participants. Dans ce modèle, deux participants calculent un résultat en fonction des données qui sont partagées entre eux et la communication se réduit à un seul message. On étudie les problèmes suivants: 1) Les couplages dans le modèle de streaming. L'entrée du problème est un flux d'arêtes d'un graphe G=(V,E) avec n=|V|. On recherche un algorithme de streaming qui calcule un couplage de grande taille en utilisant une mémoire de taille O(n polylog n). L'algorithme glouton remplit ces contraintes et calcule un couplage de taille au moins 1/2 fois la taille d'un couplage maximum. Une question ouverte depuis longtemps demande si l'algorithme glouton est optimal si aucune hypothèse sur l'ordre des arêtes dans le flux est faite. Nous montrons qu'il y a un meilleur algorithme que l'algorithme glouton si les arêtes du graphe sont dans un ordre uniformément aléatoire. De plus, nous montrons qu'avec deux passages on peut calculer un couplage de taille strictement supérieur à 1/2 fois la taille d'un couplage maximum sans contraintes sur l'ordre des arêtes. 2) Les semi-couplages en streaming et en communication. Un semi-couplage dans un graphe biparti G=(A,B,E) est un sous-ensemble d'arêtes qui couple tous les sommets de type A exactement une fois aux sommets de type B de façon pas forcement injective. L'objectif est de minimiser le nombre de sommets de type A qui sont couplés aux même sommets de type B. Pour ce problème, nous montrons un algorithme qui, pour tout 0<=ε<=1, calcule une O(n^((1-ε)/2))-approximation en utilisant une mémoire de taille Ô(n^(1+ε)). De plus, nous montrons des bornes supérieures et des bornes inférieurs pour la complexité de communication entre deux participants pour ce problème et des nouveaux résultats concernant la structure des semi-couplages. 3) Validité des fichiers XML dans le modèle de streaming. Un fichier XML de taille n est une séquence de balises ouvrantes et fermantes. Une DTD est un ensemble de contraintes de validité locales d'un fichier XML. Nous étudions des algorithmes de streaming pour tester si un fichier XML satisfait les contraintes décrites dans une DTD. Notre résultat principal est un algorithme de streaming qui fait O(log n) passages, utilise 3 flux auxiliaires et une mémoire de taille O(log^2 n). De plus, pour le problème de validation des fichiers XML qui décrivent des arbres binaires, nous présentons des algorithmes en un passage et deux passages qui une mémoire de taille sous-linéaire. 4) Correction d'erreur pour la distance du cantonnier. Alice et Bob ont des ensembles de n points sur une grille en d dimensions. Alice envoit un échantillon de petite taille à Bob qui, après réception, déplace ses points pour que la distance du cantonnier entre les points d'Alice et les points de Bob diminue. Pour tout k>0 nous montrons qu'il y a un protocole presque optimal de communication avec coût de communication Ô(kd) tel que les déplacements des points effectués par Bob aboutissent à un facteur d'approximation de O(d) par rapport aux meilleurs déplacements de d points. / In this PhD thesis, we consider two computational models that address problems that arise when processing massive data sets. The first model is the Data Streaming Model. When processing massive data sets, random access to the input data is very costly. Therefore, streaming algorithms only have restricted access to the input data: They sequentially scan the input data once or only a few times. In addition, streaming algorithms use a random access memory of sublinear size in the length of the input. Sequential input access and sublinear memory are drastic limitations when designing algorithms. The major goal of this PhD thesis is to explore the limitations and the strengths of the streaming model. The second model is the Communication Model. When data is processed by multiple computational units at different locations, then the message exchange of the participating parties for synchronizing their calculations is often a bottleneck. The amount of communication should hence be as little as possible. A particular setting is the one-way two-party communication setting. Here, two parties collectively compute a function of the input data that is split among the two parties, and the whole message exchange reduces to a single message from one party to the other one. We study the following four problems in the context of streaming algorithms and one-way two-party communication: (1) Matchings in the Streaming Model. We are given a stream of edges of a graph G=(V,E) with n=|V|, and the goal is to design a streaming algorithm that computes a matching using a random access memory of size O(n polylog n). The Greedy matching algorithm fits into this setting and computes a matching of size at least 1/2 times the size of a maximum matching. A long standing open question is whether the Greedy algorithm is optimal if no assumption about the order of the input stream is made. We show that it is possible to improve on the Greedy algorithm if the input stream is in uniform random order. Furthermore, we show that with two passes an approximation ratio strictly larger than 1/2 can be obtained if no assumption on the order of the input stream is made. (2) Semi-matchings in Streaming and in Two-party Communication. A semi-matching in a bipartite graph G=(A,B,E) is a subset of edges that matches all A vertices exactly once to B vertices, not necessarily in an injective way. The goal is to minimize the maximal number of A vertices that are matched to the same B vertex. We show that for any 0<=ε<=1, there is a one-pass streaming algorithm that computes an O(n^((1-ε)/2))-approximation using Ô(n^(1+ε)) space. Furthermore, we provide upper and lower bounds on the two-party communication complexity of this problem, as well as new results on the structure of semi-matchings. (3) Validity of XML Documents in the Streaming Model. An XML document of length n is a sequence of opening and closing tags. A DTD is a set of local validity constraints of an XML document. We study streaming algorithms for checking whether an XML document fulfills the validity constraints of a given DTD. Our main result is an O(log n)-pass streaming algorithm with 3 auxiliary streams and O(log^2 n) space for this problem. Furthermore, we present one-pass and two-pass sublinear space streaming algorithms for checking validity of XML documents that encode binary trees. (4) Budget-Error-Correcting under Earth-Mover-Distance. We study the following one-way two-party communication problem. Alice and Bob have sets of n points on a d-dimensional grid [Δ]^d for an integer Δ. Alice sends a small sketch of her points to Bob and Bob adjusts his point set towards Alice's point set so that the Earth-Mover-Distance of Bob's points and Alice's points decreases. For any k>0, we show that there is an almost tight randomized protocol with communication cost Ô(kd) such that Bob's adjustments lead to an O(d)-approximation compared to the k best possible adjustments that Bob could make.
|
300 |
Handicap, cognition et représentations / Handicap, cognition and representationsBelio, Christian 17 December 2012 (has links)
La médecine de l’Antiquité voit l’individu malade et ne reconnaît pas le handicap. Les classifications C.I.H. et C.I.F. de l’O.M.S. ont modifié notre manière de voir le handicap. La loi du 11 février 2005 utilise les termes de limitation d’activité et de restriction de participation issus de la C.I.F. La grille G-MAP évalue les limitations d’activité et la restriction de participation par la mesure de l’interaction entre les dimensions individuelles et environnementales (facilitatrices / obstacles) et rend compte ainsi de la situation de handicap. Le type de travail, de formation, le fait de côtoyer au quotidien les personnes handicapées, sont les facteurs principaux modifiant les attitudes des professionnels ou des étudiants. L’évolution et la modification de l’organisation du travail limitent parfois négativement la participation des travailleurs handicapés à la vie de l’entreprise. Une ergonomie logicielle adaptée semble être une voie prometteuse pour faciliter l’insertion. L’accompagnement des professionnels d’un ESAT portant sur la compréhension des troubles cognitifs et comportementaux facilite la vie relationnelle au sein de l’entreprise adaptée. La vision socialisée et politique du handicap impulsée par la loi du 11 février 2005 a considérablement amélioré l’image de celui-ci dans l’ensemble de la population. Nous sommes peut-être, en 2012, dans la phase du balancier de l’histoire qui pointe surtout vers l’aspect social du handicap. Ce changement mérite d’être accompagné, mais il ne doit pas se faire au détriment de la prise en compte des problèmes de santé sous-jacents et plus particulièrement de ce qui concerne le handicap cognitif ou psychique. / The traditional medical model views patients as ‘illnesses’ and does not recognize disability. The WHO’s classifications of handicap (ICH) and function (ICF) have changed our understanding of disability. The Disability Discrimination law of 11th February 2005 introduced the concepts of activity and participation. G-MAP is an assessment tool that looks at the limitations of activity and participation by measuring the interaction between individual and environmental dimensions (facilitators/obstacles) that contribute to the handicap. The main factors that help modify the attitudes of professionals and students, are the nature of their work, training and being around people with disabilities in their daily lives. The evolution and development of an organisation sometimes negatively impacts on the participation of employees with a disability. Adapted software ergonomics seems to be a promising way forward, appearing to change the attitudes towards disabled employees. The use of specific work supporting activities for the professionals of an establishment that employs disabled people (ESAT) to develop an understanding of cognitive and behavioural disorders facilitates good employee relationships within the company. The socialised and political vision of disability engendered by the law of February 2005 has considerably improved the image of disabled people in the general population. This change has to be facilitated, but it should not be detrimental to the awareness of underlying health problems. In 2012 we are the point where the pendulum is starting to swing towards the social aspect of disability.
|
Page generated in 0.0487 seconds