• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 73
  • 27
  • 2
  • 1
  • Tagged with
  • 97
  • 35
  • 33
  • 33
  • 25
  • 25
  • 22
  • 21
  • 20
  • 17
  • 16
  • 16
  • 14
  • 13
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Les technologies de l'information et de la communication et la relation de soins : invariances et inconstances / Information and communication technologies (ICT) and caring relationship

Debost, Claire 06 June 2014 (has links)
L'introduction des technologies de l'information et de la communication (TIC) dans la relation de soins est une déclinaison d'un mouvement plus global, tendant à la construction d'une véritable société de l'information. Si le secteur de la santé n'est pas épargné par ces usages nouveaux, il mérite néanmoins une étude particulière tant le colloque dit singulier, entre le médecin et son patient, est empreint de singularité. La télémédecine, en tant que pratique médicale à distance, s'illustre par son ancienneté, et la nouveauté de son cadre normatif. D'abord, offrant une mutation spatiale et temporelle de l'exercice médical, les TIC déplacent les frontières traditionnelles, et celles notamment reconnues à l'auteur et à la finalité de l'acte médical. Le colloque devient pluriel et dématérialisé. Ensuite, les enjeux du recours aux TIC, nouvel écran technique, ont rendu impérieux l'intervention du droit, afin qu'il encadre et en régule l'usage. Le droit de la relation de soins recourant aux TIC est protéiforme. Les droits et devoirs des médecins et des patients s'appliquent invariablement à cette nouvelle forme de pratique médicale. Mais, le législateur a tenté d'étoffer ce cadre en initiant des règles dédiées, parcellaires et lacunaires. Le recours aux autres branches du droit est nécessaire au dessein d'un encadrement global. Il démontre pourtant son insuffisance ou son inadaptation à une activité si singulière. / The introduction of information and communication technologies (ICT) in the caring relationship is part of a wider movement, aiming at building a real society of information. Although public health is not spared from those new customs, it nevertheless deserves its own specific study, given the singularity imprinted by patient-doctor relationships. Telemedicine, as a distant medical practice, is characterized by its seniority and the novelty of its normative frame. First of all, offering a spatio-temporal mutation of the medical practice, TIC shift traditional boundaries, including those recognized to the author and finality of the medical act. The doctor-patient bond becomes plural and dematerialized. Then, challenges implied by the resort to TIC, this new technical screen, made very imperious the intervention of the law to supervise and control its use. Caring relationship law resorting to TIC is protean. Doctors and patients' rights and duties invariably apply to this new form of medical practice. However, the lawmaker tried to fill this frame out by initiating dedicated rules, yet remaining piecemeal and lacunar. Resorting to the other fields of law is needed with view to a wide supervision. It however demonstrates its failure or unsuitability for such singular activity.
2

Un modèle et un langage pour les bases de données généralisées: projet TIGRE

Velez Jara, Fernando 05 September 1984 (has links) (PDF)
Cette thèse traite du problème de la gestion de bases de données où les informations à stocker et à manipuler sont de nature diverse (factuelles, textuelles, imagées,...) et à structure interne éventuellement complexe. Ces données dites «généralisées» apparaissent dans des applications bureautiques et de conception assistée par ordinateur. Présentation du modèle TIGRE et du langage de définition et de manipulation associé (LAMBDA)
3

Instaurer des données, instaurer des publics : une enquête sociologique dans les coulisses de l'open data / Instantiate data, instantiate publics : a sociological inquiry in the backrooms of open data

Goeta, Samuel 08 September 2016 (has links)
Alors que plus de cinquante pays dans le monde ont entrepris une démarche d’ouverture des données publiques, la thèse enquête sur l’émergence et la mise en oeuvre des politiques d’open data. Elle repose sur l’analyse de sources publiques et sur une enquête ethnographique conduite dans sept collectivités locales et institutions françaises. Revenant sur six moments de définition de grands « principes » de l’open data et leur traduction en politique publique par une institution française, Etalab, ce travail montre comment la catégorisation par l’open data a porté l’attention sur les données, en particulier sous leur forme « brute », considérées comme une ressource inexploitée, le « nouveau pétrole » gisant sous les organisations. L’enquête montre que le processus de l’ouverture débute généralement par une phase d’identification marquée par des explorations progressives et incertaines. Elle permet de comprendre que l’identification constitue un geste d’instauration qui transforme progressivement les fichiers de gestion de l’administration en données. Leur mise en circulation provoque des frictions : pour sortir des réseaux sociotechniques de l’organisation, les données doivent généralement passer à travers des circuits de validation et des chaînes de traitement. Par ailleurs, les données doivent souvent subir d’importantes transformations avant leur ouverture pour devenir intelligibles à la fois par les machines et par les humains. Cette thèse montre enfin que l’instauration concerne aussi les publics dont il est attendu qu’ils visualisent, inspectent et exploitent les données ouvertes. L’instauration des publics par des instruments très divers constitue un autre pan du travail invisible des politiques d’open data. Il ressort enfin de cette thèse que l’obligation à l’ouverture des données publiques, une suite possible des politiques d’open data, pose de manière saillante une question fondamentale « qu’est-ce qu’une donnée ? » Plutôt que de réduire la donnée à une catégorie relative, qui s’appliquerait à toutes sortes de matériaux informationnels, les cas étudiés montrent qu’elle est généralement attribuée dès lors que les données sont le point de départ de réseauxsociotechniques dédiés à leur circulation, leur exploitation et leur mise en visibilité. / As more than fifty countries have launched an open data policy, this doctoral dissertation investigates on the emergence and implementation of such policies. It is based on the analysis of public sources and an ethnographic inquiry conducted in seven French local authorities and institutions. By retracing six moments of definitions of the “open data principles” and their implementation by a French institution, Etalab, this work shows how open data has brought attention to data, particularly in their raw form, considered as an untapped resource, the “new oil” lying under the organisations. The inquiry shows that the process of opening generally begins by a phase of identification marked by progressive and uncertain explorations. It allows to understand that data are progressively instantiated from management files into data. Their circulation provoke frictions: to leave the sociotechnical network of organisations, data generally go through validation circuits and chains of treatment. Besides, data must often undergo important treatments before their opening in order to become intelligible by machines as well as humans. This thesis shows eventually that data publics are also instantiated as they are expected to visualize, inspect and process the data. Data publics are instantiated through various tools, which compose another area of the invisible work of open data projects. Finally, it appears from this work that the possible legal requirement to open data asks a fundamental question, “what is data?” Instead of reducing data to a relational category, which would apply to any informational material, studied cases show that they generally are applied when data are a starting point of sociotechnical networks dedicated to their circulation, their exploitation and their visibility.
4

Architecture pour le filtrage dans les bases de données relationnelles

Scholl, Michel 19 June 1985 (has links) (PDF)
Le premier objectif de cette thèse est de mettre en valeur la notion de filtrage des données par automate fini, décentralisé près de la mémoire de masse comme moyen efficace de traiter les opérations élémentaires de l'algèbre relationnelle. Le deuxième objectif de ce travail est d'aider le concepteur à choisir la meilleure architecture pour un tel filtre décentralisé près du disque. Pour ce faire, on tire les enseignements de la conception et la réalisation de deux versions d'un tel filtre pour le système relationnel VERSO développé par l'INRA. La première version utilise une architecture matérielle «ad hoc», tandis que le filtrage est implanté en logiciel sur un processeur standard dans la deuxième version
5

Structuration des données de la conception d'un bâtiment pour une utilisation informatique

Tlili, Assed 01 December 1986 (has links) (PDF)
Cette recherche propose une structure et un dictionnaire de données de la conception thermique d'un bâtiment d'habitation. L'analyse qui y est effectuée facilite la tâche des créateurs de logiciels spécifiques aux différents domaines de la conception des bâtiments en les dispensant des analyses séparées et répétées. Ces logiciels se partagent les données, saisies et manipulées une seule fois, et les échangent entre eux sans problèmes de compatibilité. La démarche se résume en quatre points : - L'analyse préliminaire de la conception d'un bâtiment fournit des listes, de phases, de fonctions et tâches, de dossiers et documents, et enfin d'ouvrages, à partir desquelles pourraient être collectées les données. - Cette collecte sera effectuée dans le domaine restreint de la conception thermique, pour permettre une analyse plus détaillée. Celle-ci aboutit, grâce aux méthodes de structuration, à la "structure brute" du premier niveau, qui contient des fichiers, et à la "structure simplifiée" du second niveau, qui contient des structures de données. - La "méta-structure" du troisième niveau contient la totalité des résultats dans le fichier "STRUCTURE" : nomenclature des données classées par types, et le fichier "DICTIONNAIRE" : tous les paramètres des données classées par ordre alphabétique. - L'application est réalisée grâce au fichier "BASE", dont le contenu (identifiants et valeurs des données) est saisi une seule fois par le premier utilisateur. La méthode qui a permis la proposition de ces résultats pour ce domaine restreint reste valable pour les domaines non traités. Le traitement de tous les domaines de la conception d'un bâtiment aboutirait à un système de CAO global.
6

Progressive and Random Accessible Mesh Compression / Compression Progressive et avec Accès Aléatoire de Maillages

Maglo, Adrien, Enam 10 July 2013 (has links)
Les travaux de l'état de l'art en compression progressive de maillages se sont concentrés sur les maillages triangulaires. Mais les maillages contenant d'autres types de faces sont aussi couramment utilisés. Nous proposons donc une nouvelle méthode de compression progressive qui peut efficacement encoder des maillages polygonaux. Ce nouvel algorithme atteint un niveau de performance comparable aux algorithmes dédiés aux maillages triangulaires. La compression progressive est liée à la décimation de maillages car ces deux applications génèrent des niveaux de détail. Par conséquent, nous proposons une nouvelle métrique volumique simple pour guider la décimation de maillages polygonaux. Nous montrons ensuite que les possibilités offertes par les algorithmes de compression progressive peuvent être exploitées pour adapter les données 3D en proposant un nouveau cadre applicatif pour la visualisation scientifique distante. Les algorithmes de compression progressive avec accès aléatoire peuvent mieux adapter les données 3D aux différentes contraintes en prenant en compte les régions d'intérêt de l'utilisateur. Notre premier algorithme de ce type est basé sur une segmentation préliminaire du maillage d'entrée. Chaque grappe est ensuite compressée de manière indépendante par un algorithme progressif. Notre second algorithme est basé sur le groupement hiérarchique des sommets obtenu par la décimation. Cette seconde méthode offre une forte granularité d'accès aléatoire et génère des maillages décompressés en une pièce avec des transitions lisses entre les parties décompressées à différents niveaux de détail. Des résultats expérimentaux démontrent l'efficacité des deux approches. / Previous work on progressive mesh compression focused on triangle meshes but meshes containing other types of faces are commonly used. Therefore, we propose a new progressive mesh compression method that can efficiently compress meshes with arbitrary face degrees. Its compression performance is competitive with approaches dedicated to progressive triangle mesh compression. Progressive mesh compression is linked to mesh decimation because both applications generate levels of detail. Consequently, we propose a new simple volume metric to drive the polygon mesh decimation. We apply this metric to the progressive compression and the simplification of polygon meshes. We then show that the features offered by progressive mesh compression algorithms can be exploited for 3D adaptation by the proposition of a new framework for remote scientific visualization. Progressive random accessible mesh compression schemes can better adapt 3D mesh data to the various constraints by taking into account regions of interest. So, we propose two new progressive random-accessible algorithms. The first one is based on the initial segmentation of the input model. Each generated cluster is compressed independently with a progressive algorithm. The second one is based on the hierarchical grouping of vertices obtained by the decimation. The advantage of this second method is that it offers a high random accessibility granularity and generates one-piece decompressed meshes with smooth transitions between parts decompressed at low and high levels of detail. Experimental results demonstrate the compression and adaptation efficiency of both approaches.
7

Gestion d'un évolution du schéma d'une base de données à objets: une approche par compromis

Benatallah, Boualem 04 March 1996 (has links) (PDF)
Dans cette thèse, nous intéressons au problème de l'évolution des schémas pour les bases de données à objets. Nous considérons d'abord les solutions proposées pour la gestion de l'évolution de schéma de bases de données à objets. Nous proposons une classification des approches existantes. Pour chacune de ces approches nous décrivons son principe, les mécanismes d'évolution associés, ainsi que les produits et les prototypes qui l'implantent. Nous analysons ces travaux en soulignant les avantages et les inconvénients de chaque approche. Nous présentons ensuite notre approche. D'une part, cette approche propose un cadre qui permet de combiner les fonctionnalités de la modification et du versionnement pour une meilleure gestion de l'évolution de schéma. D'autre part, elle offre à l'utilisateur un langage permettant de décrire les liens entre les différents états de la base de données afin de traduire le plus fidèlement possible les évolutions du monde réel. Le versionnement de schéma évite la perte d'informations et assure que les anciens programmes d'applications continuent de fonctionner. Cependant, le nombre de versions peut devenir important ; ce qui rend complexe leur gestion. Notre approche permet de limiter le nombre de versions: (1) l'évolution d'un schéma est traduite par sa modification si l'évolution est non-soustractive (ne provoque pas la suppression de propriétés) ou si l'utilisateur le décide, (2) La technique utilisée pour adapter les instances au schéma après l'évolution, est basée sur la caractérisation de l'importance de l'existence en tant que telle d'une version d'objet. Ainsi, le nombre de versions est limité à celles qui sont fréquemment accédées par des programmes, (3) la possibilité donnée à l'administrateur de réorganiser la base de données lui permet de supprimer des versions historiques du schéma
8

Le modèle de données et sa représentation relationnelle dans un système de gestion de base de données généralisées : projet TIGRE

Palazzo Moreira De Oliveira, M. José 29 June 1984 (has links) (PDF)
Cette thèse traite du problème des bases de données où les informations à stocker et à manipuler sont de natures différentes de celles habituellement traitées par les SG3Ds. Présentation du modèle TIGRE comme une extension du modèle entité. Association. Modélisation des données temporelles. Description de la réalisation effectuée dans le cadre du serveur de base de données TIGRE
9

De la méso-échelle à la micro-échelle : désagrégation spatio-temporelle multifractale des précipitations

Biaou, Angelbert 13 December 2004 (has links) (PDF)
Le passage de la méso-échelle, échelle des modèles de circulation générale GCM, de l'anglais "General Circulation Models", à la micro-échelle (échelle hydrologique), pour les précipitations, est un exercice assez complexe. Les champs de précipitations comme la plupart des champs géophysiques turbulents obéissent au concept d'invariance d'échelle, qui est une caractéristique principale des champs multifractals. Par ailleurs, il a été prouvé que le transfert d'énergie des grosses structures aux plus petites structures au sein d'un phénomène géophysique turbulent s'effectue de façon multiplicative (Kolmogorov, 1962; Mandelbrot, 1974 ...): un facteur aléatoire déterminant la fraction de flux transmis d'un gros tourbillon à un plus petit. Le travail que nous présentons ici s'inscrit dans le cadre du projet EDF "Prévisions saisonnières et Hydraulicité" dans la gestion de son parc hydroélectrique et a pour objectif la construction d'un modèle de désagrégation basé sur le principe d'invariance d'échelle des champs de précipitation, donc utilisant les propriétés des champs géophysiques mentionnées ci-dessus. Dans un premier temps, nous conduisons une analyse multifractale (Schertzer et Lovejoy , 1991) sur des séries pluviométriques de la France (243 séries pluviométriques au pas de temps de six minutes, constituées sur une dizaine d'années distribuées sur la France métropolitaine), ce qui nous permet de déduire les paramètres multifractals, dans le temps, dans l'espace ou dans le cas spatio-temporel. La seconde étape consiste à construire des cascades multifractales, à partir des valeurs saisonnières de pluies avec les paramètres déterminés dans la première étape. Le principe de cette deuxième partie consiste, à partir d'une prévision mensuelle sur des mailles de dimensions 243km×243km×32jours (correspondant à une anisotropie espace-temps de l'ordre de H=2/3 :x=y=t (3/2) ) voisines de celles des modèles de circulation générale (dimensions de l'ordre de 250km×250km×30jours) et à conduire la cascade multifractale, avec les paramètres multifractals préalablement déterminés, pour atteindre des valeurs de prévision sur des mailles de l'ordre de 1km×1km×1j. Les résultats obtenus devront faire l'objet d'un conditionnement orographique avant d'être comparés avec les valeurs réelles obtenues.
10

La baisse des coûts des tunnels. Mesures, causes et conséquences

Zhang, Chi 10 June 1994 (has links) (PDF)
L'objectif de cette thèse est de tenter de chercher la loi, de trouver les facteurs déterminants des coûts des tunnels de métros, de les expliquer, de construire des modèles de prévision d'ordres de grandeur des coûts. Cette étude est basée essentiellement sur la base de données établie en 1990 par le groupe de travail N°15 de l'Association Française des Travaux en Souterrain (AFTES) concernant les coûts des infrastructures des métros français. La base des données utilisées dans cette étude comporte les principales opérations françaises réalisées de 1975 à 1990 (90 observations qui représentent environ 61 000 mètres au total). La recherche porte uniquement sur les coûts des tunnels entre les stations, rapporté au mètre linéaire d'ouvrage à 2 voies. Les méthodes statistiques utilisées sont notamment les régressions linaires ou multiples. L'étude a permis de connaître le coût global, le coût hors équipements et le coût des équipements des tunnels de métros urbains et régionaux exécutés en souterrain, en tranchée couverte ainsi que sa composition, sa ventilation en pourcentage. L'analyse des facteurs quantitatifs et qualitatifs par des méthodes économétriques a permis de comprendre la complexité du problème des coûts, les facteurs déterminants des coûts et de construire des modèles pour la prévision du coût de grandeur. Cette étude a mis en évidence une tendance d'évolution des coûts en Francs constants des tunnels de métros français qui est de l'ordre de -3,5% par an en moyenne pendant la période 1975-1990, soit environ -50% au total. La recherche a montré que les évolutions constatées résultent des efforts conjugués des ingénieurs d'étude, des expériences et des progrès techniques (l'emploi de tunnelier, la réduction du volume de structure en béton etc.). Les conséquences de l'évolution des coûts pour les autorités publiques et les entreprises ainsi que les tendances du marché des travaux souterrains ont été également analysées.

Page generated in 0.0398 seconds