Spelling suggestions: "subject:"complexité."" "subject:"complexités.""
11 |
Les maires confrontés à l'apprentissage de l'intercommunalité : l'exemple de l'agglomération toulousaineLoubet, Lilian 05 October 2011 (has links) (PDF)
Le développement de l'intercommunalité donne lieu à des recompositions territoriales et gouvernementales majeures. Les élus se confrontent alors à l'exercice complexe de la coopération et à la définition d'un projet territorial. Il s'agira d'étudier la coopération intercommunale au regard des apprentissages (techniques, politiques et territoriaux) opérés par les maires. Ce propos est illustré par l'étude de l'agglomération toulousaine qui, fragmentée en trois communautés d'agglomérations ou urbaine, donne à voir des territoires plus ou moins avancés dans le mouvement d'intégration communautaire. A cette occasion, plus de 80 maires, ainsi que des responsables techniques, ont été interrogés.
|
12 |
Complexité et Performance des Récepteurs MIMOBazdresch Sierra, Luis Miguel 12 1900 (has links) (PDF)
Le codage espace-temps est une technique qui permet d'exploiter de façon très efficace la diversité spatiale et temporelle présente dans certains systèmes de communication, dont le canal sans fil. Le principal avantage de cette technique est une très grande efficacité spectrale. Dans nos jours, où le canal radio-mobile est de plus en plus utilisé pour transmettre tout type d'information, les méthodes permettant une utilisation plus efficace du spectre électromagnétique ont une importance fondamentale. Les algorithmes de réception connus aujourd'hui sont très complexes, même en ce qui concerne les codes espace-temps les plus simples. Cette complexité reste l'un des obstacles principaux à l'exploitation commerciale de ces codes. Cette thèse présente une étude très détaillée de la complexité, la performance, et les aspects les plus intéressants du comportement des algorithmes de réception pour des codes espace-temps, étude qui présente un moyen rapide pour une éventuelle conception des architectures adaptées à ce problème. Parmi les sujets présentés dans cette thèse, une étude approfondie de la performance de ces algorithmes a été réalisée, ayant pour objectif d'avoir une connaisance suffisante pour pouvoir choisir, parmi le grand nombre d'algorithmes connus, le mieux adapté à chaque système particulier. Des améliorations aux algorithmes connus ont aussi été proposées et analysées.
|
13 |
Vers de nouvelles pratiques de changement organisationnel : entre la recherche et l'actionBarnabé, Catherine 10 1900 (has links) (PDF)
Parce que les pratiques de changement actuellement mises en œuvre dans les organisations n'atteignent pas les résultats escomptés et contribuent, par le fait même, à la toxicité du milieu du travail, nous avons exploré d'autres avenues en matière de changement organisationnel. Ancrés dans une épistémologie de la complexité et animés par des valeurs humanistes, nous avons accompagné un processus de changement de type non linéaire au sein d'une entreprise de la ville de Québec, dont le design a été réalisé de concert avec les dirigeants et les employés. Guidé par la typologie du changement de Bateson, par la théorie en U de Scharmer et par les concepts de lieu et d'accompagnement, le processus de changement a mis à contribution des pratiques de nature participative de manière à mobiliser les personnes autour des enjeux qui se trouvaient au cœur de l'organisation, d'où ont émergé plusieurs idées novatrices. Réalisé sous le mode de la recherche-intervention, le processus de changement mis en œuvre avait un objectif double: celui de favoriser le changement au sein du milieu, et celui d'enrichir les connaissances en matière de changement organisationnel en cernant les conditions, tant contextuelles, organisationnelles que d'accompagnement, qui favorisent la traversée de la courbe en U de Scharmer. Pour ce faire, durant un peu plus de six mois, nous avons recueilli des données sur le processus de changement grâce à l'observation et à l'utilisation d'un journal de bord, à la distribution d'un questionnaire en ligne et à un outil de mémoire, le 3e œil. En plus de favoriser le changement au sein du milieu, le processus aura permis de cerner seize conditions facilitant l'émergence du changement. Finalement, les pistes de réflexion qui se dégagent de l'étude pointent vers l'importance, dans le cadre de recherches et d'interventions futures, d'explorer plus en profondeur ce qui favoriserait l'incarnation des pratiques de mobilisation dans la gestion quotidienne des organisations.
______________________________________________________________________________
MOTS-CLÉS DE L’AUTEUR : Changement organisationnel, non linéarité, émergence, recherche-intervention, communication, complexité, 3e œil.
|
14 |
Une approche expérimentale à la théorie algorithmique de la complexitéZenil, Hector 21 June 2011 (has links) (PDF)
Une caractéristique contraignante de la complexité de Kolmogorov-Chaitin (dénotée dans ce chapitre par K) est qu'elle n'est pas calculable à cause du problème de l'arrêt, ce qui limite son domaine d'application. Une autre critique concerne la dépendance de K à un langage particulier ou une machine de Turing universelle particulière, surtout pour les suites assez courtes, par exemple, plus courtes que les longueurs typiques des compilateurs des langages de programmation. En pratique, on peut obtenir une approximation de K(s), grâce à des méthodes de compression. Mais les performances de ces méthodes de compression s'écroulent quand il s'agit des suites courtes. Pour les courtes suites, approcher K(s) par des méthodes de compression ne fonctionne pas. On présente dans cet thèse une approche empirique pour surmonter ce problème. Nous proposons une méthode "naturelle" qui permet d'envisager une définition plus stable de la complexité de Kolmogorov-Chaitin K(s) via la mesure de probabilité algorithmique m(s). L'idée est de faire fonctionner une machine universelle en lui donnant un programme au hasard pour calculer expérimentalement la probabilité m(s) (la probabilité de produire s), pour ensuite évaluer numériquement K(s) de manière alternative aux méthodes des algorithmes de compression. La méthode consiste à : (a) faire fonctionner des machines de calcul (machines de Turing, automates cellulaires) de façon systématique pour produire des suites (b) observer quelles sont les distributions de probabilité obtenues et puis (c) obtenir K(s) à partir de m(s) par moyen du théorème de codage de Levin-Chaitin.
|
15 |
Complexité topologiquePoirier, Gabrielle January 2014 (has links)
Il y a seulement une dizaine d’années que l’invariant de la complexité topologique a été défini. Il y a encore beaucoup de travail à y consacrer. Ici nous comparons algébriquement les deux invariants TC(X) et tc(X). En fait, ce qui nous motive, c’est la conjecture de leur égalité. Dans le but d’appuyer cette conjecture, nous regardons les bornes inférieures et supérieures de chacun, pour resserrer l’intervalle dans lequel ils se trouvent. Ceci nous a permis de trouver un nouveau résultat: la borne supérieure 2cat(X) de TC(X) est aussi une borne supérieure de tc(X). Ensuite, pour trois espaces nous avons calculé l’intervalle dans lequel se trouvent TC(X) et tc(X). Tous nos résultats nous incitent à dire que ces deux invariants se comportent bien de la même façon.
|
16 |
Les maires confrontés à l'apprentissage de l'intercommunalité : l'exemple de l'agglomération toulousaine / The mayors confronted with the inter-municipal apprenticeships : the example of the Toulouse city régionLoubet, Lilian 05 October 2011 (has links)
Le développement de l’intercommunalité donne lieu à des recompositions territoriales et gouvernementales majeures. Les élus se confrontent alors à l’exercice complexe de la coopération et à la définition d’un projet territorial. Il s’agira d’étudier la coopération intercommunale au regard des apprentissages (techniques, politiques et territoriaux) opérés par les maires. Ce propos est illustré par l’étude de l’agglomération toulousaine qui, fragmentée en trois communautés d’agglomérations ou urbaine, donne à voir des territoires plus ou moins avancés dans le mouvement d’intégration communautaire. A cette occasion, plus de 80 maires, ainsi que des responsables techniques, ont été interrogés. / The development of the inter-municipal cooperation gives rise to some major territorial and governmental reorganization. The elected in charge are then confronted to the complex exercise of the inter-municipal cooperation and the definition of a territorial project. It will be a question of studying the inter-municipal cooperation towards the technical, political and territorial apprenticeships operated by the mayors. That is illustrated by the study of the Toulouse city région, which is splited in three communities of town : it shows more or less advanced territories in the movement of community integration. Some technical managers and more than eighty mayors were asked about that.
|
17 |
Structures et aléa en finance, une approche par la complexité algorithmique de l’information / Structures and randomness on finance, an approach by computational complexity theoryMa, Lin 23 November 2010 (has links)
Cette thèse s’interroge sur les notions d’aléa et de régularité des variations boursières. Nous démontrons sur le plan théorique, la compatibilité des principales théories financières (cf. efficience informationnelle, finance comportementale et approche conventionnaliste) avec l'impossibilité de battre la stratégie «buy and hold». Cette impossibilité est confirmée par les études statistiques dans la mesure où les régularités identifiées dans les séries financières ne permettent pas de prédire le sens des variations futures. Les modèles économétriques disponibles à présent offrent souvent un «hit score» insuffisant (<60%) pour réussir des tentatives fructueuses de «market timing». Une contribution de ce travail se trouve dans l'introduction du concept de complexité algorithmique en finance. Une approche générale est proposée pour estimer la «complexité de Kolmogorov» des séries de rentabilités: après un processus «discrétisation-effacement», des algorithmes de compression sans perte sont utilisés pour détecter des structures régulières qui ne sont pas toujours visibles aux yeux des tests statistiques. En étudiant le degré d'aléa des principaux marchés internationaux à une fréquence «tick-by-tick», on constate une complexité plus élevée pour Euronext-Paris que pour le NYSE et le NASDAQ. Nous expliquons ce résultat par une auto-corrélation plus élevée des volatilités inter-journalières aux Etats-Unis qu'en France. L'inefficacité de «market timing» étant soutenue aussi bien par les théories financières que par les observations empiriques, nous définissons la notion de «battre le marché» dans ce sens spécifique avec un modèle mathématique qui s'inscrit dans le cadre de la calculabilité. / This doctoral dissertation examines different notions of financial randomness and regularity. We show that main financial theories (i.e. market efficiency, behavioral finance and the so-called ``conventionalist approach'') support the impossibility of outperforming the ``buy and hold'' strategy. This point is confirmed by statistical works since regularities identified in financial time series do not help to predict the direction of future returns. To the best of our knowledge, available econometric models often provide too low ``hit scores'' (< 60%) to become successful trading rules. A conceptuel contribution of this work lies in the introduction of algorithmic complexity to finance. A general approach is proposed to estimate the ``Kolmogorov complexity'' of financial returns: lossless compression tools are used to detect regular patterns which could be overlooked by statistical tests. By studying tick-by-tick data from major stock markets, we find a higher complexity for the Euronext-Paris data than for the NYSE and the NASDAQ ones. This result can be explained by their intraday volatility autocorrelations. Supported both by financial theories and by empirical observations, impossibility to outperform the ``buy and hold'' strategy is linked to the common expression ``to outperform the market'' by a new definition for ``unbeatable strings''. With computable functions modeling effective trading rules, a price sequence is said to be ``unbeatable'' if no effective trading rule can generate indefinitely more profits than the ``buy and hold'' alternative.
|
18 |
Calculabilité, aléatoire et théorie ergodique sur les espaces métriquesHoyrup, Mathieu 17 June 2008 (has links) (PDF)
L'objectif général de cette thèse est d'étudier les notions d'aléatoire et d'information algorithmiques - jusqu'ici restreints aux espaces symboliques - sur des espaces plus généraux, précisément les espaces métriques calculables, et d'appliquer ces notions à la théorie des systèmes dynamiques. Les principaux apports sont : (1) le développement d'un cadre robuste pour l'étude d'objets mathématiques (mesures de probabilité, systèmes dynamiques et leurs modèles symboliques) d'un point de vue algorithmique, notamment l'introduction et l'étude détaillée des treillis d'énumération effective; (2) l'extension de l'aléatoire algorithmique aux espaces métriques calculables, améliorant ainsi l'extension menée par Gacs qui imposait une condition supplémentaire à l'espace, et l'étude de quelques notions des probabilités classiques du point de vue de l'aléatoire; (3) un apport à la théorie des systèmes dynamiques, établissant des relations entre l'aléatoire algorithmique et l'aléatoire dynamique. Nous étudions notamment deux notions de complexité algorithmique des orbites, l'une K1 utilisant la mesure, l'autre K2 inspirée du point de vue topologique. Nous montrons que la complexité K1 des orbites partant des points aléatoires est l'entropie du système au sens de la mesure, que la borne supérieure des complexités K2 des orbites est l'entropie topologique, et que K1 et K2 coïncident pour les points aléatoires. Ce travail enrichit les résultats de Brudno et White.
|
19 |
Étude de la complexité des logiciels de type flots de données en vue de la fiabilité : application à l'atelier logiciel SAGAChevalier, Marcel 28 November 1989 (has links) (PDF)
Cette thèse présente une métrique de complexité des logiciels adaptée aux programmes écrits dans un langage de type flots de données. Dans un premier temps, on décrit l'environnement qui a servi de base à cette étude: il s'agit de l'atelier logiciel saga (spécification d'applications et génération automatisée) mis au point par l'entreprise Merlin Gerin, dans lequel les programmes produits sont de type flots de données synchrone, et sont construits grâce a un outil graphique. On décrit ensuite la métrique proposée: celle-ci vise a mesurer la complexité graphique des logiciels considérés. Une campagne de mesures a été conduite sur des applications réelles en cours de développement à Merlin Gerin (département systèmes et électronique de sûreté) pour étudier le comportement empirique de cette métrique. On observe les résultats obtenus conjointement avec d'autres métriques de complexité plus sobres
|
20 |
Complexité de problèmes de comptage, d'évaluation et de recherche de racines de polynômes.Briquel, Irénée 29 November 2011 (has links) (PDF)
Dans cette thèse, nous cherchons à comparer la complexité booléenne classique et la complexité algébrique, en étudiant des problèmes sur les polynômes. Nous considérons les modèles de calcul algébriques de Valiant et de Blum, Shub et Smale (BSS). Pour étudier les classes de complexité algébriques, il est naturel de partir des résultats et des questions ouvertes dans le cas booléen, et de regarder ce qu'il en est dans le contexte algébrique. La comparaison des résultats obtenus dans ces deux domaines permet ainsi d'enrichir notre compréhension des deux théories. La première partie suit cette approche. En considérant un polynôme canoniquement associé à toute formule booléenne, nous obtenons un lien entre les questions de complexité booléenne sur la formule booléenne et les questions de complexité algébrique sur le polynôme. Nous avons étudié la complexité du calcul de ce polynôme dans le modèle de Valiant en fonction de la complexité de la formule booléenne, et avons obtenu des analogues algébriques à certains résultats booléens. Nous avons aussi pu utiliser des méthodes algébriques pour améliorer certains résultats booléens, en particulier de meilleures réductions de comptage. Une autre motivation aux modèles de calcul algébriques est d'offrir un cadre pour l'analyse d'algorithmes continus. La seconde partie suit cette approche. Nous sommes partis d'algorithmes nouveaux pour la recherche de zéros approchés d'un système de n polynômes complexes à n inconnues. Jusqu'à présent il s'agissait d'algorithmes pour le modèle BSS. Nous avons étudié l'implémentabilité de ces algorithmes sur un ordinateur booléen et proposons un algorithme booléen.
|
Page generated in 0.0284 seconds