• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 11
  • 7
  • Tagged with
  • 19
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Run-time scalable NoC for virtualized FPGA based accelerators as cloud services / NoC évolutif à l'exécution pour les accélérateurs basés sur FPGA virtualisés en tant que services cloud

Kidane, Hiliwi Leake 05 November 2018 (has links)
Ces dernières années, les fournisseurs de cloud et les centres de données ont intégrés les FPGA dans leur environnement à des fins d'accélération. Cela est dû au fait que les accélérateurs à base de FPGA sont connus pour leur faible puissance et leurs bonnes performances par watt. En outre, l'introduction de la capacité de reconfiguration partielle dynamique (DPR) de certains FPGA incite les chercheurs de l'industrie et des universitaires à proposer des services de cloud FPGA virtualisés baser sur DPR. Dans la plupart des travaux existants, l'interconnexion entre les vFPGA repose soit sur les réseaux BUS ou OpenFlow. Cependant le bus et OpenFlow ne sont pas des solutions optimales pour la virtualisation.Dans cette thèse, nous avons proposé un NoC évolutif à l'exécution pour les accélérateurs basés sur FPGA virtualisés dans un cloud computing. Les composants NoC s'adapteront dynamiquement aux nombres d'accélérateurs virtualisés actifs en ajoutant et en supprimant des sous-noC. Pour minimiser la complexité de la conception de l'architecture NoC à un niveau inférieur (implémentation HDL), nous avons proposé un langage de modélisation unifié de haut niveau (UML) basé sur une ingénierie dirigée par les modèles. Une approche basée sur UML / MARTE et IP-XACT est utilisée pour définir les composants de la topologie NoC de haut niveau et générer les fichiers HDL requis. Les résultats des expériences montrent que le NoC évolutif à l'exécution peut réduire la consommation d'énergie de 17%. La caractérisation NoC sur la modélisation de haut niveau basée sur MDE réduit également le temps de conception de 25%. / In the last few years, cloud providers and data centers have been integrating FPGAs in their environment for acceleration purpose. This is due to the fact that FPGA based accelerator are known for their lower power and good performance per watt. Moreover, the introduction of the ability for dynamic partial reconfiguration (DPR) of some FPGAs trigger researchers in both industry and academics to propose DPR based virtualized FPGA (vFPGA) cloud services. In most of the existing works, the interconnection between the vFPGAs relies either on BUS or OpenFlow networks. However, both the bus and OpenFlow are not virtualization-aware and optimal solutions. In this thesis, we have proposed a virtualization-aware dynamically scalable NoC for virtualized FPGA accelerators in cloud computing. The NoC components will adapt to the number of active virtualized accelerator dynamically by adding and removing sub-NoCs. To minimize the complexity of NoC architecture design at a low level (HDL implementation), we have proposed a Model-Driven Engineering (MDE) based high-level unified modeling language (UML). A UML/MARTE and IP-XACT based approach are used to define the NoC Topology components at a high-level and generate the required HDL files. Experiment results show that the dynamically scalable NoC can reduce the power consumption by 17%. The MDE based high-level modeling based NoC characterization also reduce the design time by 25%.
12

Aux sources d'Internet : l'émergence d'ARPANET. <br /><br />Exploration du processus d'émergence d'une infrastructure informationnelle. Description des trajectoires des acteurs et actants, des filières et des réseaux constitutifs de la naissance d'ARPANET. Problèmes critiques et épistémologiques posés par l'histoire des innovations.

Serres, Alexandre 20 October 2000 (has links) (PDF)
L'émergence du réseau ARPANET à la fin des années 60 est le produit d'un long processus d'innovation d'une quinzaine d'années, mobilisant de très nombreux acteurs et actants du « complexe militaro-scientifique-industriel » américain et entremêlant différentes lignées historiques (cybernétique, hypertexte, informatique interactive, transmission par paquets, partage des ressources informatiques, guerre froide, etc). Après une étude critique de l'historiographie d'Internet et de la mise en récit des origines prétendument militaires d'ARPANET, la thèse cherche à mettre en exergue l'hétérogénéité et l'incertitude constitutives des processus d'innovation ainsi que la multiplicité des temporalités à l'oeuvre dans l'émergence de cette infrastructure informationnelle.<br />A partir d'une posture empiriste, inspirée d'une approche anthropologique des sciences et des techniques postulant l'imbrication du social et du technique, cette thèse s'articule autour des trois axes suivants : <br />- l'exploration de ce long processus d'émergence d'ARPANET par le suivi de ses multiples composants et des réseaux socio-techniques qu'ils constituent. Une large place est consacrée à la naissance de l'informatique interactive à la charnière des années 50-60, symbolisée par les ordinateurs en temps partagé à l'origine d'un nouveau modèle informatique : l'ordinateur en réseau ;<br />- l'utilisation critique des notions du modèle de la traduction, dont l'application à l'étude d'un processus d'innovation passée et de longue durée montre certaines limites ;<br />- une réflexion sur l'histoire des outils d'information et sur les difficultés d'écriture d'une histoire « processuelle ».<br />A travers cette description de l'émergence du premier réseau informatique sont posées en filigrane les questions de la pensée des innovations et notamment la question centrale du déterminisme
13

L'émergence et le développement de la discipline informatique dans les universités québécoises (1960 à 2000)

Mirabel, Philippe 02 1900 (has links) (PDF)
L'informatique est un champ d'étude relativement jeune, mais suffisamment développé pour être devenu une discipline distincte. Ce mémoire analyse le développement de la discipline informatique au Québec, au niveau de l'enseignement et de la recherche universitaire. Cette étude utilise les archives de trois universités québécoises, ainsi que des bases de données sur les publications et le financement de la recherche. La naissance de l'informatique remonte à la Deuxième Guerre mondiale aux États-Unis. Au Canada, cette discipline s'est développée d'abord à l'Université de Toronto, pour ensuite émerger à l'Université de Montréal et à l'Université McGill dans les années 1960. L'analyse des archives de l'Université de Montréal, de l'Université McGill et de l'Université du Québec à Montréal, a permis de constater qu'il existe une différence dans l'émergence de la discipline informatique entre les universités francophones et anglophones. L'émergence de l'informatique dans les universités francophones s'est faite davantage dans un but académique et axé sur la recherche, alors que dans les universités anglophones, le but consistait surtout à répondre au marché du travail. Dans les universités francophones et anglophones, le développement de l'enseignement s'est par la suite fait dans le but de combler plus adéquatement les besoins de l'industrie informatique. L'étude des bases de données sur les publications ainsi que le financement de la recherche a permis de constater que les fonds de recherche ont augmenté considérablement avec le développement de l'industrie informatique. Finalement, l'étude a permis de voir que, dans les années 1970, le développement de la discipline informatique dans les universités a largement été influencé par le milieu industriel. Cette influence s'est accentuée, dans les années 1980, par la volonté des gouvernements fédéral et provincial d'investir dans ce domaine prometteur. ______________________________________________________________________________
14

Roboconf : une plateforme autonomique pour l'élasticité multi-niveau, multi-granularité pour les applications complexes dans le cloud / Roboconf : an Autonomic Platform Supporting Multi-level Fine-grained Elasticity of Complex Applications on the Cloud

Pham, Manh Linh 04 February 2016 (has links)
Les applications logicielles sont de plus en plus diversifié et complexe. Avec le développement orageux du Cloud Computing et de ses applications, les applications logicielles deviennent encore plus complexes que jamais. Les applications de cloud computing complexes peuvent contenir un grand nombre de composants logiciels qui nécessitent et consomment une grande quantité de ressources (matériel ou d'autres composants logiciels) répartis en plusieurs niveaux en fonction de la granularité de ces ressources. En outre, ces composants logiciels peuvent être situés sur différents nuages. Les composants logiciels et de leurs ressources requises d'une application Nuage ont des relations complexes dont certains pourraient être résolus au moment de la conception, mais certains sont nécessaires pour faire face au moment de l'exécution. La complexité des logiciels et de l'hétérogénéité de l'environnement Couverture devenir défis que les solutions d'élasticité actuelles ont besoin de trouver des réponses appropriées à résoudre. L'élasticité est l'un des avantages du cloud computing, qui est la capacité d'un système Cloud pour adapter à la charge de travail des changements par des ressources d'approvisionnement et deprovisioning d'une manière autonome. Par conséquent, les ressources disponibles correspondent à la demande actuelle d'aussi près que possible à chaque moment. Pour avoir une solution d'élasticité efficace, qui ne reflète pas seulement la complexité des applications Cloud mais également à déployer et à gérer eux d'une manière autonome, nous proposons une approche d'élasticité roman. Il est appelé à plusieurs niveaux élasticité fine qui comprend deux aspects de la complexité de l'application: plusieurs composants logiciels et la granularité des ressources. Le multi-niveau élasticité fine concerne les objets touchés par les actions d'élasticité et la granularité de ces actions. Dans cette thèse, nous introduisons plateforme Roboconf un système de cloud computing autonome (ACCS) pour installer et reconfigurer les applications complexes ainsi que soutenir le multi-niveau élasticité fine. A cet effet, Roboconf est également un gestionnaire d'élasticité autonome. Merci à cette plate-forme, nous pouvons abstraire les applications cloud complexes et automatiser leur installation et de reconfiguration qui peut être de plusieurs centaines d'heures de travail. Nous utilisons également Roboconf à mettre en œuvre les algorithmes de multi-niveau élasticité fine sur ces applications. Les expériences menées indiquent non seulement l'efficacité de l'élasticité fine multi-niveau, mais aussi de valider les caractéristiques de support de cette approche de la plateforme Roboconf. / Software applications are becoming more diverse and complex. With the stormy development of Cloud Computing and its applications, software applications become even more complex than ever. The complex Cloud applications may contain a lot of software components that require and consume a large amount of resources (hardware or other software components) distributed into multiple levels based on granularity of these resources. Moreover these software components might be located on different clouds. The software components and their required resources of a Cloud application have complex relationships which some could be resolved at design time but some are required to tackle at run time. The complexity of software and heterogeneity of Cloud environment become challenges that current elasticity solutions need to find appropriate answers to resolve. Elasticity is one of benefits of Cloud computing, which is capability of a Cloud system to adapt to workload changes by provisioning and deprovisioning resources in an autonomic manner. Hence, the available resources fit the current demand as closely as possible at each point in time. To have an efficient elasticity solution which not only reflects the complexity of Cloud applications but also deploy and manage them in an autonomic manner, we propose a novel elasticity approach. It is called multi-level fine-grained elasticity which includes two aspects of application’s complexity: multiple software components and the granularity of resources. The multi-level fine-grained elasticity concerns objects impacted by elasticity actions and granularity of these actions. In this thesis, we introduce Roboconf platform an autonomic Cloud computing system (ACCS) to install and reconfigure the complex applications as well as support the multi-level fine-grained elasticity. To this end, Roboconf is also an autonomic elasticity manager. Thanks to this platform, we can abstract the complex Cloud applications and automate their installation and reconfiguration that can be up to several hundred hours of labour. We also use Roboconf to implement the algorithms of multi-level fine-grained elasticity on these applications. The conducted experiments not only indicate efficiency of the multi-level fine-grained elasticity but also validate features supporting this approach of Roboconf platform.
15

Les learning analytics pour promouvoir l'engagement et la réflexion des apprenants en situation d'apprentissage pratique / Promoting students’ engagement and reflection with learning analytics in inquiry-based learning

Venant, Rémi 08 December 2017 (has links)
Les travaux pratiques représentent une composante incontournable de l'apprentissage. Toutefois, leur mise en œuvre au sein de laboratoires physiques requiert des infrastructures souvent coûteuses pour les institutions de formation qui peuvent ainsi difficilement faire face à la forte augmentation du nombre d'étudiants. Dans ce contexte, les laboratoires virtuels et distants (VRL) représentent une alternative pour assurer le passage à l'échelle des activités pratiques à moindre coût. De nombreux travaux de recherche ont émergé au cours de la dernière décennie en se focalisant sur les problématiques techniques et technologiques induites par ces nouveaux usages, telles que la fédération, la standardisation, ou la mutualisation des ressources de laboratoires. Cependant, les récentes revues de littérature du domaine mettent en exergue la nécessité de se préoccuper davantage des facettes pédagogiques liées à ces environnements informatiques innovants dédiés à l'apprentissage pratique. Dans cet objectif, nos travaux exploitent les traces issues des activités réalisées par les apprenants lors de sessions d'apprentissage pratique pour mettre en œuvre les théories socio-constructivistes qui sont au cœur de l'apprentissage exploratoire, et ainsi favoriser l'engagement et le processus de réflexion des étudiants. À partir de la littérature traitant des relations sociales entre apprenants, nous identifions dans un premier temps un ensemble de critères pour la conception de systèmes d'apprentissage pratique engageants. En s'appuyant sur une architecture de cloud computing, nous avons ensuite réalisé Lab4CE, un environnement web pour l'enseignement de l'Informatique capable de masquer la complexité des tâches de gestion des laboratoires, mais surtout d'exposer des capacités éducatives avancées. En effet, Lab4CE repose sur les Learning Analytics pour supporter différentes formes d'apprentissage telles que la collaboration, la coopération ou l'entraide entre pairs, mais également pour fournir des outils d'awareness et de réflexion visant à promouvoir l'apprentissage en profondeur pendant et après les activités pratiques. Plusieurs expérimentations en contexte d'apprentissage réel et présentiel montrent une évaluation positive de Lab4CE par les apprenants en terme d'utilisabilité, qu'ils s'appuient de manière significative sur nos outils d'awareness et de réflexion, mais que des artefacts supplémentaires sont nécessaires pour accroître leur engagement spontané dans des interactions sociales d'apprentissage. De plus, ces expérimentations soulignent l'existence d'une corrélation significative entre l'engagement des étudiants dans la plateforme et les stratégies d'apprentissage qu'ils mettent en œuvre d'une part, et leur performance académique d'autre part. Ces premiers résultats nous permettent d'affirmer que les théories socio-constructivistes sont un levier à l'engagement et à la réflexion dans les VRL. Ils nous invitent à confronter notre approche à d'autres modalités d'apprentissage, mais aussi à intégrer de nouvelles sources d'informations pour approfondir nos analyses du comportement et ainsi renforcer nos contributions à une meilleure prise en compte de l'apprentissage pratique dans les EIAH. / Practical activities, used in exploratory learning, represent a major component of education: they make learners acquire not only knowledge, but also skills and attitude, and they help them bridging the gap between theories and the real world within they are applied. However, the physical laboratories hosting these activities rely on expensive infrastructures that make very difficult for institutions to cope with the high increase of the students' population. Within this context, virtual and remote laboratories (VRL) bring an affordable alternative to provide practical activities at scale. Numerous research works have come up for the last decade; they mainly focused on technological issues such as the federation of remote laboratories, their standardization, or the pooling of the resources they provide. Nevertheless, the recent literature reviews highlight the need to pay more attention to the educational facets of these innovative learning environments. With that purpose in mind, our works make use of the learners' traces collected through their practical learning sessions to sustain socio-constructivist theories, on which practical activities rely on, and thus to engage students in their learning tasks and further their reflection. Starting from the study of scientific research, we identify as a first step a set of criteria required to design practical learning systems that support social interactions between learners. We then developed Lab4CE, a web-based environment for Computer Science education. This environment relies on a cloud computing architecture to provide learners with their own virtual resources, and hides the complexity of the inherent management tasks while offering advanced educational capabilities. Indeed, Lab4CE builds on learning analytics to enable different forms of learning such as collaboration, cooperation, or peer assistance, but also to supply learners as well as teachers awareness and reflection tools that aim at promoting deep learning during and after practical activities. We carried out several experimentations in authentic and hands-on learning contexts. They stressed the fact that learners evaluate positively the usability of Lab4CE, and they significantly rely on our awareness and reflection tools. However, extra artifacts are required to increase their spontaneous engagement in social learning interactions. Moreover, theses experimentations suggested a significant correlation between, on the one hand, student's activity in the environment and the learning strategies they apply and, on the other hand, their academic performance. These first results allow us to assess that socio-constructivist theories leverage engagement and reflection within VRL. They also invite us to put our approach into practice in other learning settings, but also to extend the sources of information to deal with our behavioral analyses in depth, and thus to enhance our contributions regarding the adoption of practical learning within technological environments.
16

Proposition d'amélioration d'un processus de développement de systèmes d'information - conclusions d'une expérience sur le terrain

Massé, Richard 12 January 2019 (has links)
Québec Université Laval, Bibliothèque 2018
17

Régulation de l'Internet par les noms de domaine. Le régime juridique et institutionnel de l'ICANN

Bricteux, Caroline 04 March 2019 (has links) (PDF)
La régulation de l’Internet constitue depuis toujours un défi pour le droit :le « réseau des réseaux » a été conçu dans un esprit de connectivité universelle, avec la volonté que chaque utilisateur intéressé puisse y relier son ordinateur et accéder aux informations disponibles en ligne, sans que celles-ci soient altérées en fonction du lieu de connexion et donc sans tenir compte d’éventuelles règles nationales, régionales ou internationales. S’il s’inscrit ainsi en porte-à-faux avec les principes fondamentaux du droit national et international, fondés sur la souveraineté des États et sur des frontières géographiques bien établies, l’Internet n’est pas pour autant un espace anarchique. Il constitue plutôt un terrain propice à l’émergence de nouveaux régulateurs et à l’expérimentation de nouvelles formes de normativité. L’espace virtuel global repose en effet sur une architecture physique et informatique qui peut être modelée et sollicitée à des fins de régulation des flux d’informations en ligne. Dans cette optique, notre thèse se penche sur le Domain Name System (DNS), le système de nommage et d’adressage de l’Internet qui assure les correspondances entre les noms de domaine intelligibles pour les humains et les adresses IP numériques utilisées par les ordinateurs pour communiquer entre eux. La structure hiérarchique de cet annuaire global en fait une cible de choix pour ceux qui aspirent à un contrôle centralisé du réseau et des informations qu’il véhicule. Le DNS est administré depuis 1998 par une organisation globale atypique, l’Internet Corporation for Assigned Names and Numbers (ICANN), constituée sous la forme d’une société privée de droit californien, investie de ses compétences en vertu de contrats avec le gouvernement des États-Unis et caractérisée par un modèle de gouvernance multipartite mobilisant des représentants du secteur privé, de la société civile et des gouvernements. Par une étude pragmatique des actes juridiques produits par l’ICANN en vue d’attribuer de nouvelles extensions de noms de domaine génériques – à côté du fameux .com et en parallèle des extensions nationales telles le .be – nous démontrons que l’organisation ne se cantonne pas à une mission essentiellement technique mais se profile, à son corps défendant, comme un régulateur global des contenus en ligne. Nous mettons en évidence, d’une part, que les normes globales édictées par l’ICANN pour justifier le rejet des candidatures indésirables ne visaient pas seulement les termes proposés comme nouvelles extensions mais aussi les conditions d’exploitation envisagées par les candidats, afin d’assurer ex ante la licéité et la qualité des informations présentées dans les futurs domaines. Nous montrons, d’autre part, que l’ICANN a été amenée, sous la pression des gouvernements, à investir ses sous-contractants, les registres et registraires de noms de domaine, d’obligations d’intérêt public relatives au contenu des sites web auxquels leurs noms de domaine donnent accès, en vue de lutter contre les activités abusives et de protéger les consommateurs. Nous démontrons que l’ICANN a ainsi renforcé, sous sa supervision, le rôle des intermédiaires du DNS en tant que points de contrôle du contenu posté en ligne et pointons les dérives potentielles de cette évolution, qui n’est accompagnée d’aucun garde-fou pour préserver la liberté d’expression en ligne. / Doctorat en Sciences juridiques / info:eu-repo/semantics/nonPublished
18

Making citizens of the information age : a comparative study of the first computer literacy programs for children in the United States, France, and th / Façonner des citoyens à l'âge de l'information : une étude comparative des premiers programmes de formation en informatique pour enfants aux Etats-Unis, en France, et en Union Soviétique (1970-1990)

Boenig-Liptsin, Margarita 16 November 2015 (has links)
Cette thèse examine la formation des citoyens à l'Âge de l'information en comparant les visions et les pratiques d’alphabétisation et d’enseignement de la culture informatique aux enfants et au grand public aux États-Unis, en France, et en Union soviétique. Les programmes d'alphabétisation et d'acculturation informatique ont été lancés dans ces trois pays dans les années 1970 avec pour objectif l'adaptation des individus à la vie dans la société informatisée telle qu'elle était envisagée par les savants, penseurs et praticiens dans chaque contexte culturel et sociopolitique. La thèse porte sur les idées et influences de trois personnes qui ont joué des rôles importants dans la promotion des initiatives d'éducation en informatique dans chacun des pays étudiés : Seymour Papert aux États-Unis, Jean-Jacques Servan-Schreiber en France, et Andrei Ershov en Union Soviétique. Selon ces pionniers, devenir alphabétisé ou cultivé en informatique signifiait plus qu’acquérir des compétences vis-à-vis de l’ordinateur ou bien apprendre à être un utilisateur passif du micro-ordinateur. Chaque pionnier envisageait une façon distincte d’incorporer la machine dans la manière de penser et d'être des individus -- comme une augmentation cognitive aux États-Unis, comme une culture en France, ou bien comme un partenaire dans l'Union Soviétique. Les hybrides hommes ordinateurs en résultant exigeaient tous une relation ludique à l'ordinateur personnel conçu comme un espace libre, non structuré et propice à l’exploration créatrice. Dans cette étude, je trace la réalisation de ces hybrides hommes-ordinateurs à partir de leurs origines dans les visions des quelques pionniers, de leur incorporation dans le matériel, les logiciels, et les programmes éducatifs, de leur développement dans les expériences locales avec les enfants et les communautés, et, enfin dans leur mise en œuvre à l'échelle de la nation. Dans ce processus d'extension, les visions des pionniers se heurtent à de puissants imaginaires sociotechniques (sociotechnical imaginaries) de l’État. Je montre alors pour chaque cas, comment, suite à la confrontation avec ces imaginaires, les visions des pionniers ne sont pas pleinement réalisées. En conclusion, je propose une lecture de la manière dont les imaginaires du Vingtième siècle de citoyens alphabétisés ou cultivés en informatique s’étendent au-delà de leurs points d'origine et se connectent à des aspects contemporains de la constitution des humains dans un monde informatisé. / In this dissertation I trace the formation of citizens of the information age by comparing visions and practices to make children and the general public computer literate or cultured in the United States, France, and the Soviet Union. Computer literacy and computer culture programs in these three countries began in the early 1970s as efforts to adapt people to life in the information society as it was envisioned by scholars, thinkers, and practitioners in each cultural and sociopolitical context. The dissertation focuses on the ideas and influence of three individuals who played formative roles in propelling computer education initiatives in each country: Seymour Papert in the United States, Jean-Jacques Servan-Schreiber in France, and Andrei Ershov in the Soviet Union. According to these pioneers, to become computer literate or computer cultured meant more than developing computer skills or learning how to passively use the personal computer. Each envisioned a distinctive way of incorporating the machine into the individual human’s ways of thinking and being—as a cognitive enhancement in the United States, as a culture in France, and as a partner in the Soviet Union. The resulting human-computer hybrids all demanded what I call a playful relationship to the personal computer, that is, a domain of free and unstructured, exploratory creativity. I trace the realization of these human-computer hybrids from their origins in the visions of a few pioneers to their embedding in particular hardware, software, and educational curricula, through to their development in localized experiments with children and communities, and finally to their implementation at the scale of the nation. In that process of extension, pioneering visions bumped up against powerful sociotechnical imaginaries of the nation state in each country, and I show how, as a result of that clash, in each national case the visions of the pioneers failed to be fully realized. In conclusion, I suggest ways in which the twentieth-century imaginaries of the computer literate citizen extend beyond their points of origin and connect to aspects of the contemporary constitutions of humans in the computerized world.
19

Principe de finalité, protection des renseignements personnels et secteur public : étude sur la gouvernance des structures en réseau / Purpose principle, personal data protection and public sector : study on network-based structures governance

Duaso Calés, Rosario 14 October 2011 (has links)
La question de la protection des renseignements personnels présente des enjeux majeurs dans le contexte des réseaux. Les premières lois en la matière au Canada et en Europe avaient pour base une série de principes qui sont encore aujourd’hui d’actualité. Toutefois, l’arrivée d’Internet et des structures en réseau permettant l’échange d’un nombre infini d’informations entre organismes et personnes ont changé la donne et induisent de nouveaux risques informationnels. Le principe de finalité, pierre angulaire des systèmes de protection des renseignements personnels, postule le caractère adéquat, pertinent et non excessif des informations collectées par rapport à l’objet du traitement et exige qu’elles soient uniquement utilisées à des fins compatibles avec la finalité initiale. Nous retracerons l’historique de ce principe et analyserons la manière dont la doctrine, la jurisprudence et les décisions du CPVPC comme de la CNIL ont contribué à délimiter ses contours. Nous étudierons comment ce principe se manifeste dans la structure en réseau de l’administration électronique ou du gouvernement électronique et nous relèverons les nouveautés majeures que présente l’État en réseau par rapport au modèle d’État en silo, ainsi que la nécessité d’une gouvernance adaptée à cette structure. Nous examinerons également la présence de standards juridiques et de notions à contenus variable dans le domaine de la protection des renseignements personnels et nous tenterons de montrer comment la finalité, en tant que principe ou standard, a les capacités de s’adapter aux exigences de proportionnalité, d’ajustement et de mutation continuelle qui sont aujourd’hui au coeur des défis de la gouvernance des réseaux. Finalement, il sera question de présenter quelques pistes pour l’adoption de mécanismes d’adaptation « réseautique » pour la protection des renseignements personnels et de montrer dans quelle mesure ce droit, capable de créer un cadre de protection adéquat, est également un « droit en réseau » qui possède tous les attributs du « droit post-moderne », attributs qui vont rendre possible une adaptation propre à protéger effectivement les renseignements personnels dans les structures, toujours changeantes, où circulent aujourd’hui les informations. / Personal data protection poses significant challenges in the context of networks. The first laws on this matter both in Canada and in Europe were based on a series of principles that remain valid today. Nevertheless, Internet and the development of network-based structures that enable infinite exchange of information between institutions and individuals are changing the priorities and, at the same time, present new risks related to data protection. The purpose principle,which is the personal data protection systems cornerstone, stresses the relevance and adequate yet not excessive nature of the collected information vis à vis the objective of data collection. The purpose principle also requires that the information shall not further be processed in a way incompatible with the initial purpose. We will describe the origins and evolution of this principle, as well as its present relevance and scope analysing the doctrine, jurisprudence and decisions of theOffice of the Privacy Commissioner in Canada and of the Commission nationale de l’informatique et des libertés (CNIL) in France. We will also examine how this principle is reflected in the network structure of the digital administration and of the electronic government. We will also underline the differences between a network based State and a « silo-based » State, each needing its structure of governance. Within the context of personal data protection, we will explore the presence of legal standards and of concepts with a changing nature. An effort will be made to highlight how purpose, be it as a principle or as a standard, has the capacity to adapt to the requirements of the core principles of the current network governance, such as proportionality, adjustment and continuous mutation. Finally, the objective is to reflect on some personal data protection network adaptation mechanisms, and to demonstrate how personal data protection can work in a network that includes all« post-modern law » elements that allow for true adaptation for effective personal data protection within the ever changing structures where data is being exchanged.

Page generated in 0.0869 seconds