281 |
Integrating Online-Offline Interactions to Explain Societal Challenges / L'intégration des interactions en ligne/hors-ligne pour expliquer les défis sociétauxAbdalla Mikhaeil, Christine 20 November 2017 (has links)
Malgré une littérature abondante sur les conséquences des technologies de l'information et de la communication (TIC), cette littérature n'aborde que trop peu les conséquences sociétales, qu'elles soient positives ou négatives, intentionnelles ou non. Parce que les interactions se propagent au-delà de l'espace en ligne et de ces conséquences paradoxales, les défis sociétaux sont un problème complexe. C'est pour ces raisons que nous avons besoin d'une meilleure compréhension des problèmes sociaux complexes. Pour ce faire, nous avons adopté le modèle de la thèse sur travaux. Les trois études de ce travail de doctorat adoptent une approche qualitative et un positionnement réaliste critique. Nous examinons un premier cas : celui du Printemps Arabe et l'utilisation de Facebook. Etudier ces types d'événements contemporains ne vient pas sans difficultés analytiques. Par conséquent, nous utilisons un outil d'analyse sémiotique pour faire face à la complexité représentationnelle des données recueillies. Enfin, les communautés en ligne peuvent également générer des coûts sociaux en fournissant un espace se faisant l'écho à des comportements socialement indésirables. / Despite the wide literature on the consequences of Information and Communication Technologies (ICTs) use, the literature still lacks understanding about the societal consequences, positive or negative, intended or unintended. Consequences of technology usages on society are paradoxical. The paradoxical outcomes can be threat to the sustainability of society. Because interactions spread beyond the online space and its outcomes are paradoxical, societal challenges are complex problem. To harvest society, we need a better understanding of social complex problems. To do so, we adopted a multi-study dissertation model. The three studies of this doctoral work adopt a qualitative approach and a critical realist philosophy.We look at a first case: The Arab Spring and aim at understanding how an online community that started on Facebook materialized in urban space, changing the political landscape. Addressing these contemporaneous events does not come without analytical challenges. Therefore, we use and extend a semiotic analytical tool to face the representational complexity: Finally, online communities can also have social costs by providing an echo chamber to socially undesirable behaviors.
|
282 |
Algorithmes pour voyager sur un graphe contenant des blocages / A guide book for the traveller on graphs full of blockagesBergé, Pierre 03 December 2019 (has links)
Nous étudions des problèmes NP-difficiles portant sur les graphes contenant des blocages.Nous traitons les problèmes de coupes du point de vue de la complexité paramétrée. La taille p de la coupe est le paramètre. Étant donné un ensemble de sources {s1,...,sk} et une cible t, nous proposons un algorithme qui construit une coupe de taille au plus p séparant au moins r sources de t. Nous nommons ce problème NP-complet Partial One-Target Cut. Notre algorithme est FPT. Nous prouvons également que la variante de Partial One-Target Cut, où la coupe est composée de noeuds, est W[1]-difficile. Notre seconde contribution est la construction d'un algorithme qui compte les coupes minimums entre deux ensembles S et T en temps $2^{O(plog p)}n^{O(1)}$.Nous présentons ensuite plusieurs résultats sur le ratio de compétitivité des stratégies déterministes et randomisées pour le problème du voyageur canadien.Nous prouvons que les stratégies randomisées n'utilisant pas de mémoire ne peuvent pas améliorer le ratio 2k+1. Nous apportons également des éléments concernant les bornes inférieures de compétitivité de l'ensemble des stratégies randomisées. Puis, nous étudions la compétitivité en distance d'un groupe de voyageurs avec et sans communication. Enfin, nous nous penchons sur la compétitivité des stratégies déterministes pour certaines familles de graphes. Deux stratégies, avec un ratio inférieur à 2k+1 sont proposées: une pour les graphes cordaux avec poids uniformes et l'autre pour les graphes où la taille de la plus grande coupe minimale séparant s et t est au plus k. / We study NP-hard problems on graphs with blockages seen as models of networks which are exposed to risk of failures.We treat cut problems via the parameterized complexity framework. The cutset size p is taken as a parameter. Given a set of sources {s1,...,sk} and a target $t, we propose an algorithm which builds a small edge cut of size p separating at least r sources from t. This NP-complete problem is called Partial One-Target Cut. It belongs to the family of multiterminal cut problems. Our algorithm is fixed-parameter tractable (FPT) as its execution takes $2^{O(p^2)}n^{O(1)}$. We prove that the vertex version of this problem, which imposes cuts to contain vertices instead of edges, is W[1]-hard. Then, we design an FPT algorithm which counts the minimum vertex (S,T)-cuts of an undirected graph in time $2^{O(plog p)}n^{O(1)}$.We provide numerous results on the competitive ratio of both deterministic and randomized strategies for the Canadian Traveller Problem. The optimal ratio obtained for the deterministic strategies on general graphs is 2k+1, where k is a given upper bound on the number of blockages. We show that randomized strategies which do not use memory cannot improve the bound 2k+1. In addition, we discuss the tightness of lower bounds on the competitiveness of randomized strategies. The distance competitive ratio for a group of travellers possibly equipped with telecommunication devices is studied. Eventually, a strategy dedicated to equal-weight chordal graphs is proposed while another one is built for graphs with small maximum (s,t)-cuts. Both strategies outperform the ratio 2k+1.
|
283 |
The limits of Nečiporuk's method and the power of programs over monoids taken from small varieties of finite monoids / Les limites de la méthode de Nečiporuk et le pouvoir des programmes sur monoïdes issus de petites variétiés de monoïdes finisGrosshans, Nathan 25 September 2018 (has links)
Cette thèse porte sur des minorants pour des mesures de complexité liées à des sous-classes de la classe P de langages pouvant être décidés en temps polynomial par des machines de Turing. Nous considérons des modèles de calcul non uniformes tels que les programmes sur monoïdes et les programmes de branchement. Notre première contribution est un traitement abstrait de la méthode de Nečiporuk pour prouver des minorants, indépendamment de toute mesure de complexité spécifique. Cette méthode donne toujours les meilleurs minorants connus pour des mesures telles que la taille des programmes de branchements déterministes et non déterministes ou des formules avec des opérateurs booléens binaires arbitraires ; nous donnons une formulation abstraite de la méthode et utilisons ce cadre pour démontrer des limites au meilleur minorant obtenable en utilisant cette méthode pour plusieurs mesures de complexité. Par là, nous confirmons, dans ce cadre légèrement plus général, des résultats de limitation précédemment connus et exhibons de nouveaux résultats de limitation pour des mesures de complexité auxquelles la méthode de Nečiporuk n'avait jamais été appliquée. Notre seconde contribution est une meilleure compréhension de la puissance calculatoire des programmes sur monoïdes issus de petites variétés de monoïdes finis. Les programmes sur monoïdes furent introduits à la fin des années 1980 par Barrington et Thérien pour généraliser la reconnaissance par morphismes et ainsi obtenir une caractérisation en termes de semi-groupes finis de NC^1 et de ses sous-classes. Étant donné une variété V de monoïdes finis, on considère la classe P(V) de langages reconnus par une suite de programmes de longueur polynomiale sur un monoïde de V : lorsque l'on fait varier V parmi toutes les variétés de monoïdes finis, on obtient différentes sous-classes de NC^1, par exemple AC^0, ACC^0 et NC^1 quand V est respectivement la variété de tous les monoïdes apériodiques finis, résolubles finis et finis. Nous introduisons une nouvelle notion de docilité pour les variétés de monoïdes finis, renforçant une notion de Péladeau. L'intérêt principal de cette notion est que quand une variété V de monoïdes finis est docile, nous avons que P(V) contient seulement des langages réguliers qui sont quasi reconnus par morphisme par des monoïdes de V. De nombreuses questions ouvertes à propos de la structure interne de NC^1 seraient réglées en montrant qu'une variété de monoïdes finis appropriée est docile, et, dans cette thèse, nous débutons modestement une étude exhaustive de quelles variétés de monoïdes finis sont dociles. Plus précisément, nous portons notre attention sur deux petites variétés de monoïdes apériodiques finis bien connues : DA et J. D'une part, nous montrons que DA est docile en utilisant des arguments de théorie des semi-groupes finis. Cela nous permet de dériver une caractérisation algébrique exacte de la classe des langages réguliers dans P(DA). D'autre part, nous montrons que J n'est pas docile. Pour faire cela, nous présentons une astuce par laquelle des programmes sur monoïdes de J peuvent reconnaître beaucoup plus de langages réguliers que seulement ceux qui sont quasi reconnus par morphisme par des monoïdes de J. Cela nous amène à conjecturer une caractérisation algébrique exacte de la classe de langages réguliers dans P(J), et nous exposons quelques résultats partiels appuyant cette conjecture. Pour chacune des variétés DA et J, nous exhibons également une hiérarchie basée sur la longueur des programmes à l'intérieur de la classe des langages reconnus par programmes sur monoïdes de la variété, améliorant par là les résultats de Tesson et Thérien sur la propriété de longueur polynomiale pour les monoïdes de ces variétés. / This thesis deals with lower bounds for complexity measures related to subclasses of the class P of languages that can be decided by Turing machines in polynomial time. We consider non-uniform computational models like programs over monoids and branching programs.Our first contribution is an abstract, measure-independent treatment of Nečiporuk's method for proving lower bounds. This method still gives the best lower bounds known on measures such as the size of deterministic and non-deterministic branching programs or formulae{} with arbitrary binary Boolean operators; we give an abstract formulation of the method and use this framework to prove limits on the best lower bounds obtainable using this method for several complexity measures. We thereby confirm previously known limitation results in this slightly more general framework and showcase new limitation results for complexity measures to which Nečiporuk's method had never been applied.Our second contribution is a better understanding of the computational power of programs over monoids taken from small varieties of finite monoids. Programs over monoids were introduced in the late 1980s by Barrington and Thérien as a way to generalise recognition by morphisms so as to obtain a finite-semigroup-theoretic characterisation of NC^1 and its subclasses. Given a variety V of finite monoids, one considers the class P(V) of languages recognised by a sequence of polynomial-length programs over a monoid from V: as V ranges over all varieties of finite monoids, one obtains different subclasses of NC^1, for instance AC^0, ACC^0 and NC^1 when V respectively is the variety of all finite aperiodic, finite solvable and finite monoids. We introduce a new notion of tameness for varieties of finite monoids, strengthening a notion of Péladeau. The main interest of this notion is that when a variety V of finite monoids is tame, we have that P(V) does only contain regular languages that are quasi morphism-recognised by monoids from V. Many open questions about the internal structure of NC^1 would be settled by showing that some appropriate variety of finite monoids is tame, and, in this thesis, we modestly start an exhaustive study of which varieties of finite monoids are tame. More precisely, we focus on two well-known small varieties of finite aperiodic monoids: DA and J. On the one hand, we show that DA is tame using finite-semigroup-theoretic arguments. This allows us to derive an exact algebraic characterisation of the class of regular languages in P(DA). On the other hand, we show that J is not tame. To do this, we present a trick by which programs over monoids from J can recognise much more regular languages than only those that are quasi morphism-recognised by monoids from J. This brings us to conjecture an exact algebraic characterisation of the class of regular languages in P(J), and we lay out some partial results that support this conjecture. For each of the varieties DA and J, we also exhibit a program-length-based hierarchy within the class of languages recognised by programs over monoids from the variety, refining Tesson and Thérien's results on the polynomial-length property for monoids from those varieties.
|
284 |
Texture volumique multi-échelle pour l'affichage de scènes complexesRatib, Karim January 1997 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
285 |
Application de l'analyse fractale et de la caractérisation physique à l'étude de la réactivité aux interfaces des poudres pharmaceutiquesRizkalla, Névine 08 1900 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal. / La caractérisation physique des poudres pharmaceutiques est une étape importante dans les procédés de préformulation. Cette caractérisation porte souvent sur des paramètres tels que la taille, la surface spécifique, la porosité, la densité, etc. Néanmoins, peu d'intérêt a été accordé à l'irrégularité de surface ou à la complexité de la structure. Depuis quelques années, l'analyse fractale s'est avérée être un outil efficace pour quantifier les aspects géométriques de la surface.
Dans ce travail, les antiacides ont été choisis comme substances modèles. L'objectif de l'étude était de déterminer l'influence du caractère fractal de ces poudres sur leur réactivité à l'interface solide-liquide. Chaque antiacide étudié provient de trois fournisseurs. La dimension fractale de chaque produit a été déterminée selon trois méthodes : la distribution de taille des pores (DDTp), qui reflète la complexité du réseau poreux ; la méthode de Frenkel-Halsey-Hill (DFHH) et la méthode thermodynamique, encore appelée méthode de Neimark (DN), qui décrivent la rugosité de surface due à la présence de pores superficiels. De même, une caractérisation physique a été menée. Les poudres ont été examinées par microscopie électronique à balayage. La taille et la distribution de taille des particules ont été mesurées par diffraction laser. La surface spécifique et la porosité ont été déterminées par adsorption d'azote. La structure cristalline a été caractérisée par diffraction des rayons X. L'activité de neutralisation a également été mesurée.
D'après les résultats obtenus, une corrélation existe entre la réactivité de neutralisation et le caractère fractal, plutôt que la surface ou la taille des particules. De plus, le rôle que joue la porosité en termes de volume total de pores a été modifié par la complexité de la structure poreuse. La complexité du réseau poreux a joué un rôle majeur dans la réactivité des différents produits. De plus, l'influence de la rugosité de surface a été démontrée lorsque l'adsorption à la surface constitue une étape limitante dans la réaction.
En conclusion, l'analyse fractale s'est avérée être un outil performant pour quantifier la complexité des surfaces des solides et la corréler à la réactivité aux interfaces solides-liquides, surtout lorsque la connaissance des propriétés physiques n'est pas suffisante pour expliquer de tels phénomènes.
|
286 |
Complexity and duplicity in the digital age : new implications for business and labor management strategyDesjardins, Guillaume 02 February 2024 (has links)
Les sociologues différencient souvent les époques en fonction de la manière dont le commerce est pratiqué (Ashton, 2013 ; Rose, 1991). Souvent, les progrès technologiques modifient la façon dont les parties échangent des biens, un phénomène qui a des conséquences sur le changement d'époque (Wright, 2004). À cet égard, les historiens économiques distinguent généralement l'ère féodale de l'ère industrielle en raison de l'invention de la technologie de la vapeur à la fin du 17e siècle et de son application généralisée au milieu du 18e siècle (Ashton, 2013). La disponibilité du World Wide Web a créé l'ère numérique. Alors que l'ancienne époque de l'ère industrielle limite principalement l'échange de travail dans une période définie, Internet permet l'expansion des paramètres commerciaux. Alors que les universitaires considèrent que l'ère numérique a entraîné des changements substantiels dans le domaine du commerce et des échanges, la plupart des théories sur la gestion (en particulier celles concernant la planification et la stratégie) trouvent leur origine dans l'ère industrielle, c'est-à-dire l'ère précédant l'existence de l'Internet. Malgré les efforts de chercheurs tels qu'Allen et al, (2007), l'éventail complet des options de stratégie compétitive disponibles pour les entreprises modernes n'a peut-être pas été suffisamment délimité. Le présent ouvrage soutient que les technologies basées sur Internet ont influencé l'émergence d'industries distinctement numérique et que, par conséquent, la théorie concernant l'avantage concurrentiel comme celle de Michael Porter doit être réexaminée. Le but de ce travail est de fournir un aperçu conceptuel de l’émergence de la complexité à l’ère numérique et de montrer en quoi ce phénomène émergeant a des implications pour la stratégie en général, mais aussi pour les relations de travail. Le projet a produit des articles scientifiques revus par des pairs dans des revues universitaires classiques. Ces articles traitent des conséquences de la duplicité pour trois types d’acteurs : ceux qui élaborent et mettent en œuvre la stratégie commerciale; les consommateurs; et ceux qui opère dans le marché du travail. / Sociologists frequently differentiate eras based on the way commerce is undertaken (Ashton, 2013; Rose, 1991). Often, technological advance changes the way parties exchange goods, a phenomenon that has consequences for epochal change (Wright, 2004). In this regard, economic historians typically differentiate the feudal era from the industrial age because of the invention of the steam technology in the late 17th century and its widespread application in the mid 18th century (Ashton, 2013). The availability of the World Wide Web created the digital era. Whereas the old industrial-age epoch mostly limits work exchange within a defined era, the Internet permits expansion of trading parameters. While scholars mostly consider that in the era of the Internet substantial changes have occurred in relation to commerce and trading, most theories about management (particular those concerning planning and strategy) have their origins in the industrial age, the era before the Internet existed. Despite the efforts of scholars such as Allen et al, (2007) the full range of competitive strategy options available to modern firms may not have been adequately delineated. The present body of work argues that Internet-based technologies have influenced the emergence of distinctively post-modern or digital age industries and that, therefore, theory regarding competitive advantage such as those of Michael Porter must be revisited. The aim of this work is to provide a conceptual overview of the emergence of complexity in the digital era and indicate how this emergent phenomenon has implications for strategy generally and the employment relationship in particular, insofar as technological complexity concerns labor control. The project has produced peer-reviewed scholarly articles in mainstream academic journals. These articles address the consequences of duplicity for three kinds of actors : those who craft and implement business strategy; consumers; and, those in (what is conventional though of as) the labor market.
|
287 |
Algorithmes Rapides pour les Tours de Corps Finis et les IsogéniesDe Feo, Luca 13 December 2010 (has links) (PDF)
Dans cette thèse nous appliquons des techniques provenant du calcul formel et de la théorie des langages afin d'améliorer les opérations élémentaires dans certaines tours de corps finis. Nous appliquons notre construction au problème du calcul d'isogénies entre courbes elliptiques et obtenons une variante plus rapide (à la fois en théorie et en pratique) de l'algorithme de Couveignes. Le document est divisé en quatre parties. Dans la partie I nous faisons des rappels d'algèbre et de théorie de la complexité. La partie II traite du principe de transposition : nous généralisons des idées de Bostan, Schost et Lecerf et nous montrons qu'il est possible de transposer automatiquement des programmes sans pertes en complexité-temps et avec une petite perte en complexité-espace. La partie III combine les résultats sur le principe de transposition avec des techniques classiques en théorie de l'élimination ; nous appliquons ces idées pour obtenir des algorithmes asymptotiquement optimaux pour l'arithmétique des tours d'Artin-Schreier de corps finis. Nous décrivons aussi une implantation de ces algorithmes. Enfin, dans la partie IV nous utilisons les résultats précédents afin d'accélérer l'algorithme de Couveignes et de comparer le résultat avec les autres algorithmes pour le calcul d'isogénies qui font l'état de l'art. Nous présentons aussi une nouvelle généralisation de l'algorithme de Couveignes qui calcule des isogénies de degré inconnu.
|
288 |
L'analyse de la complexité du discours et du texte pour apprendre et collaborerDascalu, Mihai 04 June 2013 (has links) (PDF)
L'apprentissage collaboratif assisté par ordinateur et les technologies d'e-learning devenant de plus en plus populaires et intégrés dans des contextes éducatifs, le besoin se fait sentir de disposer d'outils d'évaluation automatique et d'aide aux enseignants ou tuteurs pour les deux activités, fortement couplées, de compréhension de textes et collaboration entre pairs. Bien qu'une analyse de surface de ces activités est aisément réalisable, une compréhension plus profonde et complète du discours en jeu est nécessaire, complétée par une analyse de l'information méta-cognitive disponible par diverses sources, comme par exemples les auto-explications des apprenants. Dans ce contexte, nous utilisons un modèle dialogique issu des travaux de Bakhtine pour analyser les conversations collaboratives, et une approche théorique visant à unifier les activités de compréhension et de collaboration dans un même cadre, utilisant la construction de graphes de cohésion. Plus spécifiquement, nous nous sommes centrés sur la dimension individuelle de l'apprentissage, analysée à partir de l'identification de stratégies de lecture et sur la mise au jour d'un modèle de la complexité textuelle intégrant des facteurs de surface, lexicaux, morphologiques, syntaxiques et sémantiques. En complément, la dimension collaborative de l'apprentissage est centrée sur l'évaluation de l'implication des participants, ainsi que sur l'évaluation de leur collaboration par deux modèles computationnels: un modèle polyphonique, défini comme l'inter-animation de voix selon de multiples perspectives, un modèle spécifique de construction sociale de connaissances, fondé sur le graphe de cohésion et un mécanisme d'évaluation des tours de parole. Notre approche met en œuvre des techniques avancées de traitement automatique de la langue et a pour but de formaliser une évaluation qualitative du processus d'apprentissage. Ainsi, deux perspectives fortement interreliées sont prises en considération : d'une part, la compréhension, centrée sur la construction de connaissances et les auto-explications à partir desquelles les stratégies de lecture sont identifiées ; d'autre part la collaboration, qui peut être définie comme l'implication sociale, la génération d'idées ou de voix en interanimation dans un contexte donné. Des validations cognitives de nos différents systèmes d'évaluation automatique ont été réalisées, et nous avons conçu des scénarios d'utilisation de ReaderBench, notre système le plus avancé, dans différents contextes d'enseignement. L'un des buts principaux de notre modèle est de favoriser la compréhension vue en tant que " médiatrice de l'apprentissage ", en procurant des rétroactions automatiques aux apprenants et enseignants ou tuteurs. Leur avantage est triple: leur flexibilité, leur extensibilité et, cependant, leur spécificité, car ils couvrent de multiples étapes de l'activité d'apprentissage, de la lecture de matériel d'apprentissage à l'écriture de synthèses de cours en passant par la discussion collaborative de contenus de cours et la verbalisation métacognitive de jugements de compréhension, afin d'obtenir une perspective complète du niveau de compréhension et de générer des rétroactions appropriées sur le processus d'apprentissage collaboratif.
|
289 |
Preuves interactives quantiquesBlier, Hugue 07 1900 (has links)
Cette thèse est consacrée à la complexité basée sur le paradigme des preuves interactives.
Les classes ainsi définies ont toutes en commun qu’un ou plusieurs prouveurs,
infiniment puissants, tentent de convaincre un vérificateur, de puissance bornée, de
l’appartenance d’un mot à un langage. Nous abordons ici le modèle classique, où les
participants sont des machines de Turing, et le modèle quantique, où ceux-ci sont
des circuits quantiques. La revue de littérature que comprend cette thèse s’adresse
à un lecteur déjà familier avec la complexité et l’informatique quantique.
Cette thèse présente comme résultat la caractérisation de la classe NP par une
classe de preuves interactives quantiques de taille logarithmique.
Les différentes classes sont présentées dans un ordre permettant d’aborder aussi
facilement que possible les classes interactives. Le premier chapitre est consacré aux
classes de base de la complexité ; celles-ci seront utiles pour situer les classes subséquemment
présentées. Les chapitres deux et trois présentent respectivement les
classes à un et à plusieurs prouveurs. La présentation du résultat ci-haut mentionné
est l’objet du chapitre quatre. / This thesis is devoted to complexity theory based on the interactive proof paradigm.
All classes defined in this way involve one or many infinitely powerful provers
attempting to convince a verifier of limited power that a string belongs to a certain
language. We will consider the classical model, in which the various participants
are Turing machines, as well as the quantum model, in which they are quantum
circuits. The literature review included in this thesis assume that the reader is
familiar with the basics of complexity theory and quantum computing.
This thesis presents the original result that the class NP can be characterized
by a class of quantum interactive proofs of logarithmic size.
The various classes are presented in an order that facilitates the treatment of
interactive classes. The first chapter is devoted to the basic complexity classes;
these will be useful points of comparison for classes presented subsequently. Chapters
two and three respectively present classes with one and many provers. The
presentation of the result mentioned above is the object of chapter four.
|
290 |
La représentation numérique à l'épreuve de la complexité du projet de territoireCharef, Karim 03 1900 (has links)
Le projet de territoire n’aura jamais suscité autant de débats et de passions. Son devenir
mobilise à bien des égards la construction collective d’un dessein se matérialisant par des
formes qui informent des forces tout autant que par des forces qui investissent des
formes lesquelles traduisent les valeurs du moment. Par conséquent, cette projection
dans un avenir partagé amène des exigences sociales en matière d’édification du projet
de territoire mettant à l’ordre du jour la complexité d’une telle entreprise.
L’enchevêtrement d’actions et de logiques qui s’y opèrent et qui s’y expriment pour en
élaborer, dans la plus grande incertitude, les contours d’un futur souhaité nous presse de
s’y prononcer : la construction complexe d’un dessein territorial s’exhibant nous interpelle
quant à son évaluation voire quant à sa reformulation. Parmi les modalités d’expression
qui permettent une telle délibération, il y a l’énoncé visuel. Médiation discursive
privilégiée, elle autorise l’élaboration et la mise en scène collective d’un devenir territorial
possible. Or depuis quelques années, au couple projet / représentation, vient se
superposer une autre médiation, celle du numérique. Portée par le développement des
technologies de l’information, celle-ci s’invite dans le champ de l’édification du projet de
territoire. En s’alliant avec la puissance de l’image, elle recompose les représentations
d’un dessein territorial collectivement formulé, ouvrant un nouvel espace d’actions à
l’occasion d’une démarche de planification. Démarche de plus en plus complexe.
De surcroit, la présente recherche tient cette complexité non comme un mot «fourre-tout»
ou une tare dont il faudrait se débarrasser, mais se résout à l’affronter en s’inscrivant
dans un paradigme en pleine gestation, celui de la «pensée complexe». La fécondité
autant conceptuelle qu’opératoire d’une telle inscription permettra de jeter un regard
renouvelé sur une pratique à travers une de ses modalités discursives à la fois la plus
manifeste et la moins questionnée, à savoir l’énoncé visuel.
En fin de compte, les représentations notamment celles construites et véhiculées par le
numérique sauront-elles rendre compte et relever le défi de l’édification collective d’un
projet de territoire qui se pose dans toute sa complexité ? Telle est en substance le
questionnement dont cette recherche s’attellera à apporter des éléments de réponse et à
esquisser de nouvelles perspectives. / Land Planning has never given rise to so much debate and passion. It involves to a large
extent the materialization of a collective design through forms shaped by ideas and ideas
shaped by forms, embodying current values. This projection into a shared future carries
with it certain social requirements regarding its implementation, rendering the agenda
more complex.
Multiple actions and positions that are integrated in the planning process in order to
devise, within a context of uncertainty, the desired future’s contours push us into quickly
prescribing; this entails communication, debate, evaluation and even reformulation
The visual statement can be included among those modes of expression allowing such
deliberation. As a favoured discursive mediation, it authorizes the development and
collective staging of a possible territorial fate. In recent years this project/representation
duo has been complemented by another mediation, that of the digital. Buoyed by
information technology development, now it falls within the scope of the territorial
planning. Magnifying the power of the image, it renews the representation of collective
territorial intentions, opening up new possibilities in the planning process, thus making it
more complex.
Moreover, this research paper considers complexity not as a "catch-all” term or an
imperfection to get rid of but confronts it within an upcoming paradigm that of “complex
thought.” This approach, conceptually and operationally rich, makes it possible to take a
fresh look at land planning through its most visible and least questioned mean of
expression, namely visual statements.
Ultimately can these representations, especially those constructed and conveyed by
digital formats, fully render a complex territorial plan and support the challenge of its
collective implementation? These are in essence the issues taken on by this research
with the aim of providing at least some answers and opening up new perspectives.
|
Page generated in 0.0682 seconds