• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 3
  • Tagged with
  • 15
  • 6
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Hybrid and anonymous file-sharing environments : architecture and characterisation / Environnements hybrides et anonymes pour le partage de fichiers : architecture et caractérisation

Timpanaro, Juan Pablo 06 November 2013 (has links)
La plupart de nos activités quotidiennes sont aujourd'hui rythmées et régies par Internet, qu'il s'agisse de partage de fichiers, d'interaction sur les réseaux sociaux, de banques et de cours en ligne, ou encore de publication de blogs. En ce qui concerne le partage de fichiers, l'une des activités les plus pratiquées sur Internet, diverses solutions ont déjà été proposées, créées et implantées, pour constituer des réseaux de partage de fichiers aux performances et objectifs parfois très différents. Cette société du numérique permet le profilage des utilisateurs. Chaque information envoyée ou reçue sur Internet va ainsi traverser une série de noeuds intermédiaires jusqu'à atteindre sa destination. Un observateur pourra ainsi déterminer la provenance et la destination des paquets et de ce fait surveiller et profiler les activités des utilisateurs en identifiant le serveur auquel ils se connectent ou la durée de leur session. Parallèlement, les communications anonymes se sont développées afin de permettre aux utilisateurs d'utiliser Internet sans que leur identité ne soit nécessairement révélée.Notre contribution se veut double. Nous nous intéressons tout d'abord aux environnements de partage de fichiers hybrides en nous focalisant sur des réseaux réels largement déployés. Nous visons, au travers de cette étude, deux objectifs. Le premier consiste en l'amélioration du système d'indexation de contenu au sein de l'environnement de partage de fichiers BitTorrent. Il s'agit, plus précisément, de renforcer le système BitTorrent par le biais d'une indexation de son contenu dans la table de hachage distribuée Kad. Notre second but est d'améliorer les conditions d'accès au contenu ainsi que sa disponibilité au sein de l'environnement I2P de partage de fichiers. Nous permettons aux utilisateurs d'I2P d'accéder anonymement au contenu public de BitTorrent et nous aboutissons ainsi à un environment de partage de fichiers totalement anonyme, indexation et distribution du contenu comprises. Nous centrons ensuite notre analyse sur une meilleure compréhension des environnements anonymes par le biais d'une surveillance à grande échelle. Nous définissons les caractéristiques du réseau I2P, en visant l'intégralité de l'environnement anonyme et son large champ d'activités et de services anonymes. Nous analysons les différents aspects du réseau, comme le nombre des utilisateurs, leurs caractéristiques ainsi que le nombre de services anonymes disponibles. Au travers des mesures et évaluations réalisées à long terme sur le réseau, couplées à différentes analyses de corrélation, nous avons réussi à identifier et caractériser un petit groupe d'individus exécutant un service anonyme spécifique comme, par exemple, les habitants d'une même ville utilisant une application anonyme de partage de fichiers / Most of our daily activities are carried out over the Internet, from file-sharing and social networking to home banking, online-teaching and online-blogging. Considering file-sharing as one of Internet top activities, different architectures have been proposed, designed and implemented, leading to a wide set of file-sharing networks with different performances and goals. This digital society enables as well users' profiling. As Internet users surf the World Wide Web, every sent or received packet passes through several intermediate nodes until they reach their intended destination. So, an observer will be able to determine where a packet comes from and where it goes to, to monitor and to profile users' online activities by identifying to which server they are connected or how long their sessions last. Meanwhile, anonymous communications have been significantly developed to allow users to carry out their online activities without necessarily revealing their real identity. Our contribution is twofold. On the one hand, we consider hybrid file-sharing environments, with a special focus on widely deployed real-world networks and targeting two defined goals. The first goal is to improve content indexation in the BitTorrent file-sharing environment, enabling BitTorrent content to be indexed in the Kad distributed has table and leading to a more robust BitTorrent system. The second goal is to improve content availability in the I2P file-sharing environment. We allow I2P users to anonymously access public BitTorrent content and we obtain a fully anonymous file-sharing environment, including anonymous content indexation and anonymous content distribution. On the other hand, we focus on the understanding of anonymous environments through extensive monitoring. We characterise the I2P network, targeting the entire anonymous environment and its anonymous services. We consider different aspects of the network, such as the number of users, their characteristics as well as the number of anonymous services available. Through long-term measurements on the network and along with different correlation analyses, we are able to characterise a small group of users using a specific anonymous service, such as the users from a particular city performing anonymous file-sharing
2

Fichiers de police, un encadrement légal et sociétal dans un contexte controversé / Police files, legal and societal framework in a controversial context

Derambarsh, Arash 11 December 2015 (has links)
Cette thèse est consacrée à l’étude des fichiers de police et de gendarmerie pour, notamment, mettre en lumière l’idée-force selon laquelle une conception moderne de l’État de droit promeut non seulement leur encadrement mais plus encore leur nécessité. De fait, il existe en France de nombreux fichiers tenus par diverses administrations dont le but est par exemple de recenser des personnes en fonction de leur statut, de comptabiliser les propriétaires de véhicules ou les titulaires de permis de conduire, de dénombrer les personnes condamnées, et par ces biais de prévenir et si possible faciliter la répression des contraventions, délits et crimes. Le droit à la sûreté constitue une liberté fondamentale, et il convient de percevoir que par leur existence même les fichiers de police participent de cet objectif. En pratique, il s’agira de savoir si des abréviations comme FAED, FNAEG, FIJAIS, STIC, JUDEX, FPR, FRG, FVVS, FIT, FNFM, SDRF, SIS-Schengen, N-SIS,FAC, FCA, FPIS, SDRF, AGRIPPA, FDST, FOS, CIBLE, FIP, STUC, FTIVV, SCPPB, TREIMA, RAPACE, FAR, FNPE, FSCP, SALVAC, FNT, FBS, FTPJ, FSPORA ou FNPC désignent des outils véritables et efficients de rapprochements criminels, utilisés par les autorités afin d’élucider les crimes les plus graves. En substance, ces fichiers visent, grâce à une simple requête, à identifier voire à localiser les délinquants et les criminels dans toute la mémoire informatisée des services, qu’ils’agisse des fichiers d’antécédents criminels ou même des simples notes inscrites en procédure. Au demeurant, ces moteurs de recherche peuvent fonctionner pour tous les types de délits ou crimes. / This thesis is dedicated to the understanding of police files and to their compatibility with Human rights. Also, it questions both potential Human rights and individual freedom violations behind such acronyms: FAED, FNAEG, FIJAIS, STIC, JUDEX, FPR, FRG, FVVS, FIT, FNFM, SDRF, SIS-Schengen, N-SIS, FAC, FCA,FPIS, SDRF, AGRIPA FDST, FOS, CIBLE, FIP, STUC, FTIVV, SCPPB, TREIMA, RAPACE, FAR, FNPE, FSCP, SALVAC, FNT, FBS, FTPJ, FS-PORA or FNPC. While leading an investigation, the vigilance shall then be doubled: On one hand, investigators (police and customs) should be provided with relevant and sufficient information so as to lead their inquisition and to collect enough evidence (Loppsi 2). On the other hand, the Human rights of each citizen have to be insured against abuse and misuse of information. In 2009, The CNIL (National Commissionon Informatics and Liberty) revealed that 83 % of the data of the STIC was not accurate.Data related to victims and to their offender is then stored (identity, date and place of birth, nationalities addresses). Some crimes files even reveal information related to the ethnical or racial origins of the parties, information related to their political and religious opinions, and information related to their health or to their sexual life. In case of any information misuse, recourse to justice seems to be very limited. In France, no law supports the opposition of a party to access data related to his/her identity. This is an exception made to the Informatics and Liberty Law (according to the Law 78-17 dated January 6th 1978 modified).
3

Mesures statistiques non-paramétriques pour la segmentation d'images et de vidéos et minimisation par contours actifs

Herbulot, Ariane 10 October 2007 (has links) (PDF)
La segmentation d'images et de séquences vidéo consiste à séparer les objets d'intérêt du reste de l'image. L'utilisation de contours actifs en utilisant une approche variationnelle repose sur la définition d'un critère de segmentation. Ce critère est ensuite dérivé à l'aide des gradients de forme, afin de parvenir à l'équation d'évolution du contour actif. Bien souvent ce critère dépend des caractéristiques de l'image et fait une hypothèse implicite sur les distributions de ces caractéristiques. Par exemple, considérer une fonction de la moyenne de l'intensité d'une région revient à faire une hypothèse gaussienne sur la distribution de cette intensité. Dans cette thèse, nous proposons de nous affranchir de ces hypothèses qui ne sont pas toujours respectées et de considérer les distributions les plus "réelles" possible en utilisant une estimation non-paramétrique de ces distributions. Nous présentons des critères issus de la théorie de l'information, comme l'entropie, afin de segmenter des zones de faible variabilité dans les images. Afin de prendre en compte plusieurs canaux comme les canaux couleur, l'entropie jointe et l'information mutuelle sont aussi utilisées. Lorsqu'une information a priori est connue, la divergence de Kullback-Leibler permet d'introduire une notion de distance à une segmentation de référence en cherchant à minimiser une "distance" entre distributions. Enfin, l'entropie jointe est utilisée afin de segmenter des objets en mouvement dans des séquences vidéo, que cela soit en ayant au préalable calculé un flot optique, ou en estimant de façon conjointe le mouvement avec la segmentation.
4

Dynamique des graphes de terrain : analyse en temps intrinsèque / Dynamics of complex networks : analysis using intrinsic time

Albano, Alice 10 October 2014 (has links)
Nous sommes entourés par une multitude de réseaux d'interactions, issus de contextes très différents. Ces réseaux peuvent être modélisés par des graphes, appelés graphes de terrain. Ils possèdent une structure en communautés, c'est-à-dire en groupes de nœuds très liés entre eux, et peu liés avec les autres. Un phénomène que l'on étudie sur les graphes dans de nombreux contextes est la diffusion. La propagation d'une maladie en est un exemple. Ces phénomènes dépendent d'un paramètre important, mais souvent peu étudié : l'échelle de temps selon laquelle on les observe. Selon l'échelle choisie, la dynamique du graphe peut varier de manière très importante.Dans cette thèse, nous proposons d'étudier des processus dynamiques en utilisant une échelle de temps adaptée. Nous considérons une notion de temps relatif, que nous appelons le temps intrinsèque, par opposition au temps "classique", que nous appelons temps extrinsèque. Nous étudions en premier lieu des phénomènes de diffusion selon une échelle de temps intrinsèque, et nous comparons les résultats obtenus avec une échelle extrinsèque. Ceci nous permet de mettre en évidence le fait qu'un même phénomène observé dans deux échelles de temps différentes puisse présenter un comportement très différent. Nous analysons ensuite la pertinence de l'utilisation du temps intrinsèque pour la détection de communautés dynamiques. Les communautés obtenues selon les échelles de temps extrinsèques et intrinsèques nous montrent qu'une échelle intrinsèque permet la détection de communautés beaucoup plus significatives et détaillées que l'échelle extrinsèque. / We are surrounded by a multitude of interaction networks from different contexts. These networks can be modeled as graphs, called complex networks. They have a community structure, i.e. groups of nodes closely related to each other and less connected with the rest of the graph. An other phenomenon studied in complex networks in many contexts is diffusion. The spread of a disease is an example of diffusion. These phenomena are dynamic and depend on an important parameter, which is often little studied: the time scale in which they are observed. According to the chosen scale, the graph dynamics can vary significantly. In this thesis, we propose to study dynamic processes using a suitable time scale. We consider a notion of relative time which we call intrinsic time, opposed to "traditional" time, which we call extrinsic time. We first study diffusion phenomena using intrinsic time, and we compare our results with an extrinsic time scale. This allows us to highlight the fact that the same phenomenon observed at two different time scales can have a very different behavior. We then analyze the relevance of the use of intrinsic time scale for detecting dynamic communities. Comparing communities obtained according extrinsic and intrinsic scales shows that the intrinsic time scale allows a more significant detection than extrinsic time scale.
5

Chargement dynamique par composants pour réseaux de capteurs adaptables

Malo, Alexandre January 2013 (has links)
L'utilisation des réseaux de capteurs sans fil (RCSF) croît dans plusieurs domaines, dont celui des espaces intelligents. Dans un espace intelligent, les RCSF sont utilisés puisque les noeuds qui les composent se dissimulent dans l'environnement et consomment très peu d'énergie. Pour l'installation, la maintenance et la gestion des contextes, il est nécessaire de pouvoir reprogrammer un, noeud sans avoir à le redémarrer. Ce projet de recherche vise l'amélioration de la reprogrammation des RCSF en utilisant l'ingénierie logicielle basée sur les composants (ILBC). En utilisant un cadriciel hybride de composants et un format exécutable allégé, les composants dynamiques deviennent utilisables à moindres coûts. Les résultats obtenus lors de ces travaux ont été publiés dans un article de journal. Les travaux de ce projet se divisent en deux volets. Le premier volet est l'optimisation des cadriciels dynamiques de composants. Le problème est que ces derniers demandent trop de ressources et ne sont pas envisageables pour les RCSF. Afin de diminuer la surcharge en taille de l'utilisation de composants dynamiques, un concept de cadriciel hybride de composants' est proposé. Pour valider ce concept, le cadriciel NodeCom est créé et requiert aussi peu de mémoire que Contiki. NodeCom possède un noyau minimal qui est statique alors que les autres composants peuvent être statiques ou dynamiques. Le deuxième volet est l'optimisation de la reprogrammation adaptée aux RCSF avec l'ILBC. C'est en compressant. le format de fichiers exécutable qui contint les composants que la reprogrammation est optimisée. Le chargement dynamique utilisé est accéléré et la consommation énergétique du transfert de composants est diminuée. C'est le format ELF qui est modifié pour partager les composants dynamiques. Pour réduire sa taille, plusieurs sections et symboles peuvent être supprimés en raison des contraintes imposées par l'utilisation de l'ILBC. Puisque les RCSF utilisent majoritairement des microcontrôleurs 8 bits ou 16 bits, les métadonnées 32 bits du format ELF sont converties. La résultante de ces modifications est le format de composants ComELF qui permet d'obtenir des compressions de près de 50 %. À ce format, une description des composants est finalement ajoutée pour permettre une gestion automatique du chargement dynamique.
6

Simulation réaliste de l'exécution des applications déployées sur des systèmes distribués avec un focus sur l'amélioration de la gestion des fichiers / Realistic simulation of the execution of applications deployed on large distributed systems with a focus on improving file management

Chai, Anchen 14 January 2019 (has links)
La simulation est un outil puissant pour étudier les systèmes distribués. Elle permet aux chercheurs d’évaluer différents scénarios de manière reproductible, ce qui est impossible à travers des expériences réelles. Cependant, les simulations reposent souvent sur des modèles simplifiés, dont le réalisme est trop rarement étudié dans la littérature. Ceci mène à une pertinence et une applicabilité discutables des résultats obtenus. Dans ce contexte, l'objectif principal de notre travail est d'améliorer le réalisme de la simulation en mettant l'accent sur le transfert de fichiers dans un système distribué à large échelle, tel que l’infrastructure de production EGI. Le réalisme de la simulation est étudié ici au travers de deux aspects principaux : le simulateur et le modèle de plate-forme (l’infrastructure distribuée). Ensuite, à partir de simulations réalistes, nous proposons des recommandations fiables pour améliorer la gestion des fichiers à travers des portails scientifiques, tels que la plate-forme d'imagerie virtuelle (VIP). Afin de reproduire de manière réaliste les comportements du système réel en simulation, nous devons en obtenir une vue de l'intérieur. Par conséquent, nous recueillons et analysons un ensemble de traces d’exécutions d'une application particulière exécutée sur EGI via VIP. En plus des traces, nous identifions et examinons les composants du système réel à reproduire de manière réaliste en simulation. Il s’agit, par exemple, des algorithmes utilisés pour la sélection d’un réplica dans le système de production. Nous simulons ensuite ces composants en utilisant les mécanismes mis à disposition par SimGrid. Nous construisons, à partir des traces, un modèle de plate-forme réaliste essentiel à la simulation des transferts des fichiers. La précision de notre modèle de plate-forme est évaluée en confrontant les résultats de simulations avec la vérité terrain des transferts réels. Nous montrons que le modèle proposé surpasse largement le modèle issu de l’état de l’art pour reproduire la variabilité réelle des transferts de fichiers sur EGI. Ce modèle est ensuite enrichi pour permettre l’analyse de nouveaux scénarios, au-delà de la reproduction des traces d’exécution en production. Enfin, nous évaluons différentes stratégies de réplication de fichiers par simulation en utilisant deux modèles différents: un modèle issu de l’état de l’art amélioré et notre modèle de plate-forme construit à partir des traces. Les résultats de simulations montrent que les deux modèles conduisent à des décisions de réplication différentes, même s’ils reflètent une topologie de réseau hiérarchique similaire. Ceci montre que le réalisme du modèle de plateforme utilisé en simulation est essentiel pour produire des résultats pertinents et applicables aux systèmes réels. / Simulation is a powerful tool to study distributed systems. It allows researchers to evaluate different scenarios in a reproducible manner, which is hardly possible in real experiments. However, the realism of simulations is rarely investigated in the literature, leading to a questionable accuracy of the simulated metrics. In this context, the main aim of our work is to improve the realism of simulations with a focus on file transfer in a large distributed production system (i.e., the EGI federated e-Infrastructure (EGI)). Then, based on the findings obtained from realistic simulations, we can propose reliable recommendations to improve file management in the Virtual Imaging Platform (VIP). In order to realistically reproduce certain behaviors of the real system in simulation, we need to obtain an inside view of it. Therefore, we collect and analyze a set of execution traces of one particular application executed on EGI via VIP. The realism of simulations is investigated with respect to two main aspects in this thesis: the simulator and the platform model. Based on the knowledge obtained from traces, we design and implement a simulator to provide a simulated environment as close as possible to the real execution conditions for file transfers on EGI. A complete description of a realistic platform model is also built by leveraging the information registered in traces. The accuracy of our platform model is evaluated by confronting the simulation results with the ground truth of real transfers. Our proposed model is shown to largely outperform the state-of-the-art model to reproduce the real-life variability of file transfers on EGI. Finally, we cross-evaluate different file replication strategies by simulations using an enhanced state-of-the-art model and our platform model built from traces. Simulation results highlight that the instantiation of the two models leads to different qualitative decisions of replication, even though they reflect a similar hierarchical network topology. Last but not least, we find that selecting sites hosting a large number of executed jobs to replicate files is a reliable recommendation to improve file management of VIP. In addition, adopting our proposed dynamic replication strategy can further reduce the duration of file transfers except for extreme cases (very poorly connected sites) that only our proposed platform model is able to capture.
7

Disconnected operation in a distributed file system /

Kistler, James Jay, January 1900 (has links)
Based on the author's thesis (Ph.D.), 1993. / Includes bibliographical references ([239]-244) and index. Also issued online.
8

Le peuplement fondateur de la région de Lotbinière et ses conséquences démogénétiques

Sergerie, François 04 1900 (has links)
Un effet fondateur survient lorsqu’un petit nombre d’immigrants forment une nouvelle population et qu’ainsi les descendants ont une majorité de gènes provenant de ces quelques ancêtres. L’effet fondateur québécois, qui résulte de l’établissement de quelques milliers d’immigrants français aux XVIIe et XVIIIe siècles, est bien documenté. Mais des effets fondateurs régionaux ont aussi été identifiés. Ce mémoire de maîtrise vise à déterminer si un effet fondateur régional est à l’oeuvre dans la région de Lotbinière (Chaudière-Appalaches), dont le peuplement initial remonte à la fin du XVIIe siècle. Le fichier BALSAC et le Registre de la population du Québec ancien ont permis de constituer deux groupes de descendants, 715 individus mariés à la fin du XVIIIe siècle, et 60 autres mariés à la fin du XXe siècle. Par généalogies ascendantes et descendantes, les fondateurs immigrants et régionaux de la région ont par la suite été identifiés. Les résultats indiquent que l’effet fondateur régional avait encore une forte empreinte chez le groupe de descendants du XVIIIe siècle, mais que l’impact s’atténue en ce qui concerne les descendants contemporains. L’homogénéité démontrée par les coefficients d’apparentement et l’indice de contribution génétique uniforme, le petit nombre de fondateurs régionaux et le fait que 65 % des gènes contemporains étaient déjà introduits en 1800 sont des signes qui pointent vers un effet fondateur régional. Par contre, le nonisolement de la région, la proportion modérée de gènes contemporains introduits par les premiers fondateurs régionaux et les niveaux de consanguinité semblables aux autres régions du centre du Québec, incitent à nuancer cette conclusion. En fait, il y a possiblement deux Lotbinière : le Lotbinière ancien, sur la rive et le Lotbinière nouveau, dans les terres; chacun ayant son pool génique et son historique de peuplement propre. / A founder effect occurs when a small number of immigrants form a new population and thus the descendants carry a majority of genes from these few ancestors. Québec’s founder effect, which resulted from the settlement of a few thousand French immigrants during the 17th and 18th centuries, is well documented. But regional founder effects have also been identified. This master’s thesis aims to determine whether a regional founder effect is at work in the Lotbinière region (Chaudière-Appalaches), where the initial settlement goes back to the 17th century. With the BALSAC database and the Registre de la population du Québec ancien, two groups of descendants have been set up: 715 individuals married during the late eighteenth century, and 60 others married during the late twentieth century. By reconstituting ascending and descending genealogies, immigrant founders and regional founders of the area have been identified. The results indicate that the regional founder effect still had a strong footprint among the group of eighteenth century descendants, but that this impact diminishes for the contemporary descendants. The homogeneity demonstrated by kinship coefficients and the founder’s uniform number, the small number of regional founders and the fact that 65 % of contemporary genes were already introduced in 1800 are signs that point to a regional founder effect. However, the nonisolation of the region, the moderate proportion of contemporary genes introduced by the first regional founders and inbreeding levels which are similar to other regions of central Quebec, suggest a less straightforward conclusion. In fact, there are possibly two Lotbinière: the old Lotbinière, on the river bank, and the new Lotbinière, inland, each one having its own gene pool and settlement history.
9

Mesure de la mortalité des médecins au Québec à partir de données administratives

Azeredo Teixeira, Ana Cristina 07 1900 (has links)
Ce mémoire de recherche a pour objectif d’obtenir une mesure approximative de la mortalité des hommes médecins au Québec retenus dans l’étude. En plus d’analyser l’évolution de la mortalité de ces médecins pendant les périodes 1993-1998, 1999-2004 et 2005-2010, leur mortalité est comparée à celle de l’ensemble de la population masculine québécoise. Nous comparons également la mortalité des médecins omnipraticiens à celle des médecins spécialistes. Les données utilisées dans le cadre de ce mémoire proviennent d’un fichier administratif du Collège des médecins du Québec, qui contient des informations concernant un certain nombre de médecins qui ont obtenu un permis pour pratiquer la médecine au Québec, sans égard à leur statut au sein du Collège à la date de l’émission du fichier. Ces données n’ont pas été collectées à des fins statistiques et ainsi le fichier présente certaines limitations qui ont restreint nos analyses de mortalité, notamment le fait qu’elles ne nous fournissent pas la population à risque de décéder durant chacune des périodes étudiées. Cependant, même étant consciente que des biais se produiraient, nous avons calculé deux estimations de l’exposition au risque de mourir chez les médecins, en essayant de pallier le plus possible les limites du fichier. À partir de la première méthode de calcul, nous avons estimé les taux de mortalité par groupes quinquennaux d’âge entre 40 et 75 ans pour les médecins inscrits au tableau des membres. En contrepartie, à partir de la deuxième méthode de calcul, nous avons obtenu des taux de mortalité pour les mêmes groupes d’âge pour les médecins de tous statuts confondus et enregistrés dans le fichier de données. Nous croyons à des mesures acceptables de la mortalité des hommes médecins en autant qu’elle soit analysée en tenant compte de toutes les limites des données. Les résultats obtenus démontrent une diminution de la mortalité des hommes médecins d’une période à l’autre, mais les différences ne sont significatives que pour les groupes d’âge à partir d’environ 60 ans, surtout lorsque les taux des périodes 1993-1998 et 2005-2010 sont comparés. De plus, pour toutes les périodes analysées, la mortalité de l’ensemble de la population masculine québécoise s’avère plus élevée que celle des hommes médecins enregistrés dans le fichier de données et cela pour les deux méthodes de calcul de l’exposition au risque de décéder considérées. Finalement, cette étude ne montre pas de différence significative entre la mortalité des hommes médecins omnipraticiens et celle des hommes médecins spécialistes. / The goal of this research is to obtain an approximate measurement of the mortality of male physicians in the province of Quebec who are considered under this study. Physicians’ mortality rates were analyzed in terms of changes between the years 1993-1998, 1999-2004 and 2005-2010, as well as being compared with the mortality rates of Quebec men at large. In addition, the mortality rates of male general practitioners were compared to those of physicians practicing a medical specialty. The data used in the production of this paper is derived from an administrative file provided by the Collège des médecins du Québec, which contains information on a certain number of physicians who had previously obtained a permit to practice medicine in the province, irrespective of their status within the Collège at the time that the file was released. This data was not collected for statistical purposes and therefore, the file presents certain constraints that restrict our mortality analysis, in particular due to the absence of information regarding the population at risk of death in each of the periods studied here. That said, while we were conscious of the bias that could result from this, we have produced two estimates of these physicians' exposure to risk of death, in order to try to compensate for the file's limitations, in as much as possible. By using the first method of calculation, we have assessed mortality rates for quinquennial age groups of physicians between the ages of 40 and 75 that are currently part of the membership roll. Using the second method of calculation, we obtained mortality rates for physicians belonging to the same age groups, except that this time, registered physicians of all statuses were considered. We believe the mortality measurements for male physicians are acceptable as long as any analysis thereof doesn’t overlook the limitations of the data. The results obtained demonstrated a reduction in mortality among male physicians from one period to the next, but the differences were only significant for groups above the age of 60, especially upon comparing the periods of 1993-1998 and 2005-2010. In addition, during every period studied, mortality rates among the province's entire male population proved to be higher than the mortality rates among the registered male physicians present in the file; this result was obtained for both methods of calculation of the exposure to risk of death. Finally, this study did not demonstrate a significant difference between mortality among general practitioners and specialists.
10

Structuration des données de la conception d'un bâtiment pour une utilisation informatique

Tlili, Assed 01 December 1986 (has links) (PDF)
Cette recherche propose une structure et un dictionnaire de données de la conception thermique d'un bâtiment d'habitation. L'analyse qui y est effectuée facilite la tâche des créateurs de logiciels spécifiques aux différents domaines de la conception des bâtiments en les dispensant des analyses séparées et répétées. Ces logiciels se partagent les données, saisies et manipulées une seule fois, et les échangent entre eux sans problèmes de compatibilité. La démarche se résume en quatre points : - L'analyse préliminaire de la conception d'un bâtiment fournit des listes, de phases, de fonctions et tâches, de dossiers et documents, et enfin d'ouvrages, à partir desquelles pourraient être collectées les données. - Cette collecte sera effectuée dans le domaine restreint de la conception thermique, pour permettre une analyse plus détaillée. Celle-ci aboutit, grâce aux méthodes de structuration, à la "structure brute" du premier niveau, qui contient des fichiers, et à la "structure simplifiée" du second niveau, qui contient des structures de données. - La "méta-structure" du troisième niveau contient la totalité des résultats dans le fichier "STRUCTURE" : nomenclature des données classées par types, et le fichier "DICTIONNAIRE" : tous les paramètres des données classées par ordre alphabétique. - L'application est réalisée grâce au fichier "BASE", dont le contenu (identifiants et valeurs des données) est saisi une seule fois par le premier utilisateur. La méthode qui a permis la proposition de ces résultats pour ce domaine restreint reste valable pour les domaines non traités. Le traitement de tous les domaines de la conception d'un bâtiment aboutirait à un système de CAO global.

Page generated in 0.0515 seconds