• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 550
  • 195
  • 69
  • 2
  • 1
  • Tagged with
  • 843
  • 473
  • 340
  • 205
  • 169
  • 137
  • 112
  • 111
  • 102
  • 100
  • 98
  • 90
  • 81
  • 79
  • 77
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Étude philosophique du renversement juridique canadien concernant l'aide médicale à mourir, à la lumière du débat Hart-Dworkin

Lacroix, Sébastien 24 April 2018 (has links)
Le 6 février 2015, la Cour suprême du Canada a rendu un jugement historique, unanime et anonyme. Dans l'arrêt Carter c. Canada (Procureur général), la Cour reconnaît que l'interdiction mur à mur de l'aide médicale à mourir porte atteinte aux droits constitutionnels de certaines personnes. En effet, les adultes capables devraient pouvoir demander l'aide d'un médecin pour mettre fin à leur vie s'ils respectent deux critères : consentir clairement et de façon éclairée à quitter ce monde et être affecté de problèmes de santé graves et irrémédiables leur causant des souffrances persistantes et intolérables. Or, cette décision constitue un renversement juridique, car un jugement inverse avait été rendu en 1993. En effet, vingt-deux ans auparavant, la Cour suprême avait jugé à cinq contre quatre que l'interdiction du suicide assisté était constitutionnelle. Dans l'arrêt Rodriguez c. Colombie-Britannique, la majorité avait statué que la protection du caractère sacré de la vie dans toute circonstance, tant pour les personnes vulnérables que pour les adultes capables, était une raison suffisante pour ne pas accorder de dérogation aux articles du Code criminel qui concernent le suicide assisté. Les juges majoritaires craignent alors que toute ouverture à l’aide au suicide entraine un élargissement progressif des critères d’admissibilité, ce que plusieurs appellent l’argument du « doigt dans l’engrenage ». Dans le cadre de ce mémoire, le renversement juridique Rodriguez-Carter sera analysé à la lumière du débat entre H. L. A. Hart et Ronald Dworkin. Alors que le premier défend une nouvelle version du positivisme modéré, le second offre une théorie nouvelle et innovatrice, nommée l’interprétativisme. L’objectif est simple : déterminer laquelle de ces deux théories explique le mieux le renversement juridique canadien concernant l’aide médicale à mourir. L’hypothèse initiale soutient que les deux théories pourront expliquer ledit renversement, mais que l’une le fera mieux que l’autre. / On February 6th 2015, the Supreme Court of Canada issued an anonymous, unanimous landmark judgment. In Carter v. Canada (Attorney General), the Court recognized that a blanket prohibition of physician-assisted dying violates the constitutional rights of certain individuals. Indeed, a competent adult person should be allowed to seek help from a doctor to end her life if she meets two criteria: clearly consent to the termination of life and have a grievous and irremediable medical condition causing enduring suffering that is intolerable to the said individual. This legal decision constitutes an judicial overrule, because a reverse judgment was made in 1993. In fact, twenty-two years ago, the Supreme Court ruled five to four in favour of the ban on assisted suicide. In Rodriguez v. British Columbia (Attorney General), the majority ruled that the protection of the sanctity of life in all circumstances, both for vulnerable people for capable adults, was reason enough not to invalidate the sections of the Criminal Code concerned with assisted suicide. The majority then feared that any opening to assisted suicide would cause a gradual widening of the eligibility criteria, what many have called the argument of the “slippery slope”. As part of this thesis, the Rodriguez-Carter judicial overrule will be analyzed in light of the debate between H. L. A. Hart and Ronald Dworkin. While the former is known for his defence of a new version of soft positivism, the latter offers a new and innovative theory, named interpretivism. The goal is simple: to establish which of these two theories best explains the Canadian legal overrule regarding physician-assisted dying. The initial hypothesis is that both theories may explain said reversal, but one will do so better than the other.
62

L'implantation de la terminologie française dans un domaine de pointe : cas de la génétique médicale au Québec, un comparatif avec la France

Di Spaldro, Josée 23 April 2018 (has links)
Cette recherche a pour toile de fond le Québec. Face à sa situation historicosociodémographicopolitique, renforcée par l’hégémonie américaine, cette province du Canada se trouve linguistiquement fragilisée. Elle se révèle toutefois non dépourvue, grâce à la loi 101 promulguée en 1977 et à la Charte de la langue française qui l’a dictée. Or, nous nous interrogeons sur la situation terminolinguistique actuelle, suivant près de 38 années d’efforts consentis aux plans d’aménagements linguistique et terminologique par l’Office québécois de la langue française, l’institution qui a pour mission d’appliquer cette politique. Notre recherche a pour objectif principal de rendre compte des pratiques terminologiques du domaine de la génétique médicale au Québec, en parallèle avec celui de la France, mère patrie. Le vocabulaire spécialisé dont ce dernier est doté voit sa terminologie généralement créée aux États-Unis d’Amérique, comme la plupart des terminologies issues des domaines de pointe. D’une part, elle vérifie notre hypothèse de recherche voulant que les officialismes se trouveraient en position ex aequo avec les anglicismes, suivis des variantes. D’autre part, elle évalue si l’intégrité terminolinguistique de ce domaine est menacée. Une enquête est alors mise en place, puis des protocoles sont établis. Elle se fixe pour objectif secondaire de formuler des propositions aménagistes, tandis que la mise en application de certains outils que nous avons développés pour encourager l’utilisation d’une terminologie française sont proposés en tant que perspectives d’avenir. / The backdrop for this research is Quebec. Given its historical, social, demographic and political context, reinforced by American hegemony, this province of Canada is linguistically sensitive. It is not, however, without recourse, thanks to Bill 101, enacted in 1977 through to the Charter of the French Language. We explore the current terminolinguistic context, after nearly 38 years of linguistic and terminological development planning efforts by the Office québécois de la langue française, which is mandated to enforce the Charter. The main purpose of this study is to report on terminology practices in the field of medical genetics in Quebec, in contrast with that of France, the motherland. The specialized vocabulary terminology in this field generally originates in the United States of America, as is the case for most highly technical fields. On the one hand, the study tests the hypothesis that officialisms are on par with anglicisms, followed by variants. On the other, it assesses whether or not terminolinguistic integrity in this field is threatened. An investigation put in place and protocols are established. The secondary purpose of the study is to formulate proposals, whereas applications of certain tools that we developed are proposed to promote the use of French terminology.
63

Service de présence adapté au contexte des communications d'urgence médicale pré-hospitalière

Ben Salah, Fakher January 2009 (has links)
Notre groupe de recherche développe actuellement une plateforme de communication multimédia sur protocole IP. Cette plateforme vise une application dans le domaine des communications d'urgence médicale pré-hospitalière. Dans un tel contexte, il devient utile de joindre et d'inviter à une conférence multimédia, un spécialiste médical. La problématique que nous abordons est celle de pouvoir joindre, à tout moment, une telle ressource possédant certaines caractéristiques de spécialité et de disponibilité. Pour y répondre, nous suggérons la mise au point d'un service de présence adapté au contexte des communications d'urgence médicale pré-hospitalière. Ce service a la particularité de permettre une recherche de personnel qui répond à des critères spécifiques, tels que la spécialité, la localisation et/ou l'état de présence. L'objectif général de notre projet de recherche est donc de contribuer à l'avancement de la technologie des systèmes de présence en contexte médical.
64

Faisabilité d'un modèle d'organisation des services d'immunisation contre l'influenza et le pneumocoque dans les groupes de médecine de famille

St-Cerny, José January 2007 (has links)
Contexte : La vaccination est la mesure la plus efficace pour prévenir l'influenza et les infections à pneumocoque qui sont des sources importantes de morbidité et mortalité. Au Québec, les couvertures vaccinales contre ces deux infections n'atteignent toutefois pas l'objectif souhaité de 80%. Les groupes de médecine de famille (GMF) grâce à certains de leurs attributs (responsabilité envers la clientèle inscrite, présence d'infirmières et appui technique informatique) semblent particulièrement prometteurs pour favoriser la mise en place de services d'immunisation efficaces. Un modèle idéal d'organisation des services d'immunisation a été proposé en tenant compte des stratégies reconnues efficaces pour augmenter les couvertures vaccinales, des pratiques pour assurer la qualité de l'acte vaccinal et de l'organisation des GMF. Objectifs de l'étude. Apprécier, auprès des médecins, la faisabilité d'un modèle d'organisation des services d'immunisation contre l'influenza et le pneumocoque dans les GMF. Méthode. Une étude descriptive à deux volets a été réalisée en 2005-2006 auprès des médecins responsables des 19 GMF de la Montérégie. Le volet 1, soit des entrevues téléphoniques avec les médecins responsables ou autres informateurs clés désignés par eux, a permis de connaître certaines caractéristiques des GMF, leurs pratiques d'immunisation ainsi que les ressources et les normes d'encadrement qui y sont associées. Des analyses descriptives ont été faites pour décrire les pratiques actuelles d'immunisation contre l'influenza et le pneumocoque dans les GMF et apprécier les écarts entre les pratiques présentes et le modèle proposé. Par la suite, les entrevues face à face du volet 2 avec les médecins responsables, nous ont fait connaître l'opinion de ces derniers sur les facteurs favorables et obstacles par rapport au modèle proposé. L'analyse qualitative de ces facteurs a identifié les conditions requises pour implanter ce modèle. Résultats. Volet 1: Les pratiques d'immunisation contre l'influenza et contre le pneumocoque varient beaucoup d'un GMF à l'autre et même entre les sites d'un même GMF. Néanmoins de façon globale, les services de vaccination contre l'influenza correspondent assez bien au modèle proposé. L'immunisation contre le pneumocoque est cependant moins bien organisée. Par ailleurs l'écart le plus remarquable entre les pratiques présentes dans les GMF et le modèle proposé est l'absence de stratégie s'adressant aux vaccinateurs. Volet 2: L'analyse de l'opinion des médecins permet de faire certains constats par rapport aux attributs qui nous semblaient a priori favorables à la mise en place de pratiques vaccinales efficaces. Pour ce qui est de la responsabilité envers leur clientèle inscrite, bien que les médecins des GMF se sentent responsables et accordent une grande importance à l'immunisation, l'inscription de la clientèle n'est pas actuellement utilisée pour la leur offrir. La présence d'infirmières est une condition moins favorable qu'anticipée, car les tâches de ces dernières limitent leur disponibilité pour l'immunisation. Finalement l'appui technique informatique tarde à venir, les médecins responsables croient que des logiciels performants pourraient faciliter la mise en place de plusieurs stratégies et leur permettre d'être plus efficaces dans leurs pratiques vaccinales. Conclusion. Cette étude a permis de tracer le premier portrait détaillé des services d'immunisation contre l'influenza et le pneumocoque dans les GMF. Les médecins sont motivés et aimeraient améliorer leurs pratiques vaccinales. Pour le faire, ils ont besoin de ressources: un système d'information performant, certains outils, une rémunération.
65

Évaluation des performances du scanner LabPET

Bergeron, Mélanie January 2009 (has links)
Ce mémoire porte sur l'évaluation et l'amélioration des performances du premier appareil commercial de Tomographie d'Émission par Positrons (TEP) pour petits animaux basé sur des détecteurs à photodiode avalanche (PDA) et une électronique de traitement entièrement numérique. Cet appareil est la version améliorée d'un premier prototype TEP basé sur les PDA datant de 1995. Cette nouvelle version a été conçue sur une plateforme électronique numérique pour améliorer à la fois la résolution spatiale, permettant de détecter de plus petites structures chez la souris, et la sensibilité afin d'injecter une dose de radiotraceur plus faible à l'animal. Le but d'utiliser une électronique numérique était d'augmenter la flexibilité du traitement des signaux pour l'adapter selon de nouvelles applications. Afin de vérifier toutes ces caractéristiques potentielles, nous avons effectué une évaluation systématique et exhaustive des performances de ce nouveau scanner (désigné sous le sigle commercial « LabPET ») pour l'application en imagerie moléculaire. Des procédures d'ajustement automatique de plusieurs paramètres du scanner, dont la tension de polarisation des détecteurs PDA dans les conditions optimales d'opération, ont été mises au point pour faciliter l'étalonnage du grand nombre de détecteurs (1536 ou 3072 selon la version du scanner). Une technique pour normaliser les délais temporels de chaque détecteur a permis d'améliorer les performances temporelles du scanner et la qualité d'image. Cette technique a aussi servi à caractériser de façon individuelle les détecteurs au niveau de leur résolution en temps, ce qui permet de connaître leurs performances et de suivre leur possible dégradation à long terme. Par la suite, les performances de l'appareil pour l'imagerie, telles que la résolution spatiale et temporelle, la résolution en énergie, la sensibilité, le temps mort et le taux de comptage, ont été mesurées en suivant dans la mesure du possible les recommandations des normes de la National Electrical Manufacturers Association (NEMA) pour l'évaluation d'appareils d'imagerie. De plus, des balises pour l'élaboration de protocoles d'acquisition ont été établies afin d'obtenir des images optimales. Pour ce faire, une caractérisation plus exhaustive de la qualité d'image à l'aide de mires et d'images de rats et de souris a été réalisée. Deux appareils avec champ axial de 3.75 et 7.5 cm ont été caractérisés dans le cadre de ce projet de maîtrise. À la suite de toutes les améliorations apportées à l'appareil et à la lumière des résultats obtenus, la plupart des concepts utilisés pour la fabrication de l'appareil ont conduit à des images de qualité supérieure.
66

Correction de l'effet de volume partiel en tomographie d'émission par positrons chez le modelé animal

Guillette, Nicolas January 2011 (has links)
La quantification de la concentration de radiotraceur en imagerie par tomographie d'émission par positrons (TEP) est capitale, que ce soit au niveau clinique, mais majoritairement dans le domaine de la recherche, notamment pour l'analyse pharmacocinétique, appliquée chez l'humain et l'animal. Parmi les corrections importantes en imagerie TEP, l'effet de volume partiel (EVP) est l'un des plus complexes à corriger. Il dépend de divers phénomènes physiques liés aux performances de l'appareil, à la reconstruction de l'image ainsi qu'aux propriétés de l'objet mesuré.La correction pour l'EVP est cruciale afin de pallier la faible résolution spatiale de l'appareil TEP. Les conséquences principales de l'EVP sont une sous-estimation de la concentration d'un radiotraceur dans les objets de petite taille ainsi qu'une difficulté à cerner correctement les contours de l'objet observé. De nombreuses méthodes appliquées directement sur les images reconstruites sont proposées dans la littérature et sont utilisées dans certains cas, mais aucun consensus sur une méthode n'a encore été établi jusqu'à présent. Ce travail porte sur la compréhension de la problématique de l'EVP par différents tests mathématiques et des simulations, ainsi que sur le développement et l'application d'une nouvelle méthode de correction appliquée à l'imagerie TEP. L'argument principal de cette technique de correction est que le défaut de la résolution spatiale est enregistré au niveau des détecteurs et la correction pour ce défaut devrait être effectuée avant la reconstruction de l'image. En outre, la technique proposée a l'avantage de tenir compte non seulement de la taille, mais également de la forme de l'objet selon les différentes projections, ce qui représente un bénéfice par rapport aux approches appliquées directement sur l'image.La correction est basée sur la déconvolution des projections mesurées par des fonctions d'étalement appropriées. Celles-ci sont obtenues expérimentalement à partir de mires de cylindres de différents diamètres. Pour tester les capacités de cette technique, l'étude s'est limitée à la correction d'objets initialement isolés par régions d'intérêt sur l'image.La technique a ensuite été testée sur des images de tumeurs isolées et du coeur chez le rat, obtenues par injection de [indice supérieur 18] F-fluorodésoxy-D-glucose (FDG). Les conséquences de la correction de l'EVP ont enfin été étudiées par l'application du modèle d'analyse pharmacocinétique compartimentale du FDG dans le coeur de rat.
67

Filtrage, réduction de dimension, classification et segmentation morphologique hyperspectrale

Noyel, Guillaume 22 September 2008 (has links) (PDF)
Le traitement d'images hyperspectrales est la généralisation de l'analyse des images couleurs, à trois composantes rouge, vert et bleu, aux images multivariées à plusieurs dizaines ou plusieurs centaines de composantes. Dans un sens général, les images hyperspectrales ne sont pas uniquement acquises dans le domaine des longueurs d'ondes mais correspondent à une description d'un pixel par un ensemble de valeurs : c'est à dire un vecteur. Chacune des composantes d'une image hyperspectrale constitue un canal spectral, et le vecteur associé à chaque pixel est appelé spectre. Pour valider la généralité de nos méthodes de traitement, nous les avons appliquées à plusieurs types d'imagerie correspondant aux images hyperspectrales les plus variées : des photos avec quelques dizaines de composantes acquises dans le domaine des longueurs d'ondes, des images satellites de télédétection, des séries temporelles d'imagerie par résonance dynamique (DCE-MRI) et des séries temporelles d'imagerie thermique. Durant cette thèse, nous avons développé une chaîne complète de segmentation automatique des images hyperspectrales par des techniques morphologiques. Pour ce faire, nous avons mis au point une méthode efficace de débruitage spectral, par Analyse Factorielle des Correspondances (AFC), qui permet de conserver les contours spatiaux des objets, ce qui est très utile pour la segmentation morphologique. Puis nous avons fait de la réduction de dimension, par des méthodes d'analyse de données ou par modélisation des spectres, afin d'obtenir un autre représentation de l'image avec un nombre restreint de canaux. A partir de cette image de plus faible dimension, nous avons effectué une classification (supervisée ou non) pour grouper les pixels en classes spectralement homogènes. Cependant, les classes obtenues n'étant pas homogènes spatialement, i.e. connexes, une étape de segmentation s'est donc avérée nécessaire. Nous avons démontré que la méthode récente de la Ligne de Partage des Eaux Probabiliste était particulièrement adaptée à la segmentation des images hyperspectrales. Elle utilise différentes réalisations de marqueurs aléatoires, conditionnés par la classification spectrale, pour obtenir des réalisations de contours par Ligne de Partage des Eaux (LPE). Ces réalisations de contours permettent d'estimer une fonction de densité de probabilité de contours (pdf) qui est très facile à segmenter par une LPE classique. En définitive, la LPE probabiliste est conditionnée par la classification spectrale et produit donc des segmentations spatio-spectrales dont les contours sont très lisses. Cette chaîne de traitement à été mise en œuvre sur des séquences d'imagerie par résonance magnétique dynamique (DCE-MRI) et a permis d'établir une méthode automatique d'aide au diagnostic pour la détection de tumeurs cancéreuses. En outre, d'autres techniques de segmentation spatio-spectrales ont été développées pour les images hyperspectrales : les régions η-bornées et les boules µ-géodésiques. Grâce à l'introduction d'information régionale, elles améliorent les segmentations par zones quasi-plates qui n'utilisent quant à elles que de l'information locale. Enfin, nous avons mis au point une méthode très efficace de calcul de toutes les paires de distances géodésiques d'une image, puisqu'elle permet de réduire jusqu'à 50 % le nombre d'opérations par rapport à une approche naïve et jusqu'à 30 % par rapport aux autres méthodes. Le calcul efficace de ce tableau de distances offre des perspectives très prometteuses pour la réduction de dimension spatio-spectrale.
68

Morphologie mathématique et graphes : application à la segmentation interactive d'images médicales

Stawiaski, Jean 13 October 2008 (has links) (PDF)
La recherche en imagerie médicale est une des disciplines les plus actives du traitement d'images. La segmentation et l'analyse d'images dans un contexte clinique reste un problème majeur de l'imagerie médicale. La multiplicité des modalités d'imagerie, ainsi que les fortes variabilités des structures et pathologies à analyser rendent cette tâche fastidieuse. Dans la plupart des cas, la supervision de spécialistes, tels que des radiologistes, est nécessaire pour valider ou interpréter les résultats obtenus par analyse d'images. L'importante quantité de données, ainsi que les nombreuses applications liées à l'imagerie médicale, nécessitent des outils logiciels de très haut niveau combinant des interfaces graphique complexe avec des algorithmes interactifs rapides. Les récentes recherches en segmentation d'images ont montré l'intérêt des méthodes à base de graphes. L'intérêt suscité dans la communauté scientifique a permis de développer et d'utiliser rapidement ces techniques dans de nombreuses applications. Nous avons étudié les arbres de recouvrement minimaux, les coupes minimales ainsi que les arbres de chemins les plus courts. Notre étude a permis de mettre en lumière des liens entre ces structures a priori très différentes. Nous avons prouvé que les forêts des chemins les plus courts, ainsi que les coupes minimales convergent toutes les deux, en appliquant une transformation spécifique du graphe, vers une structure commune qui n'est autre qu'une forêt de recouvrement minimale. Cette étude nous a aussi permis de souligner les limitations et les possibilités de chacune de ces techniques pour la segmentation d'images. Dans un deuxième temps, nous avons proposé des avancées théoriques et pratiques sur l'utilisation des coupe minimales. Cette structure est particulièrement intéressante pour segmenter des images à partir de minimisation d'énergie. D'une part, nous avons montré que l'utilisation de graphes de régions d'une segmentation morphologique permet d'accélérer les méthodes de segmentation à base de coupe minimales. D'autre part nous avons montré que l'utilisation de graphes de régions permet d'étendre la classe d'énergie pouvant être minimisée par coupe de graphes. Ces techniques ont toutes les caractéristiques pour devenir des méthodes de référence pour la segmentation d'images médicales. Nous avons alors étudié qualitativement et quantitativement nos méthodes de segmentation à travers des applications médicales. Nous avons montré que nos méthodes sont particulièrement adaptées à la détection de tumeurs pour la planification de radiothérapie, ainsi que la création de modèles pour la simulation et la planification de chirurgie cardiaque. Nous avons aussi mené une étude quantitative sur la segmentation de tumeurs du foie. Cette étude montre que nos algorithmes offrent des résultats plus stables et plus précis que de nombreuses techniques de l'état de l'art. Nos outils ont aussi été comparés à des segmentations manuelles de radiologistes, prouvant que nos techniques sont adaptées à être utilisée en routine clinique. Nous avons aussi revisité une méthode classique de segmentation d'images : la ligne de partages des eaux. La contribution de notre travail se situe dans la re-définition claire de cette transformation dans le cas des graphes et des images multi spectrales. Nous avons utilisé les algèbres de chemins pour montrer que la ligne de partages des eaux correspond à des cas particuliers de forêt des chemins les plus courts dans un graphe. Finalement, nous proposons quelques extensions intéressantes du problème des coupes minimales. Ces extensions sont basées sur l'ajout de nouveaux types de contraintes. Nous considérons particulièrement les coupes minimales contraintes à inclure un ensemble prédéfini d'arêtes, ainsi que les coupes minimales contraintes par leur cardinalité et leur aires. Nous montrons comment ces problèmes peuvent être avantageusement utilisé pour la segmentation d'images.
69

Contributions à l'étude de la classification spectrale et applications

Mouysset, Sandrine 07 December 2010 (has links) (PDF)
La classification spectrale consiste à créer, à partir des éléments spectraux d'une matrice d'affinité gaussienne, un espace de dimension réduite dans lequel les données sont regroupées en classes. Cette méthode non supervisée est principalement basée sur la mesure d'affinité gaussienne, son paramètre et ses éléments spectraux. Cependant, les questions sur la séparabilité des classes dans l'espace de projection spectral et sur le choix du paramètre restent ouvertes. Dans un premier temps, le rôle du paramètre de l'affinité gaussienne sera étudié à travers des mesures de qualités et deux heuristiques pour le choix de ce paramètre seront proposées puis testées. Ensuite, le fonctionnement même de la méthode est étudié à travers les éléments spectraux de la matrice d'affinité gaussienne. En interprétant cette matrice comme la discrétisation du noyau de la chaleur définie sur l'espace entier et en utilisant les éléments finis, les vecteurs propres de la matrice affinité sont la représentation asymptotique de fonctions dont le support est inclus dans une seule composante connexe. Ces résultats permettent de définir des propriétés de classification et des conditions sur le paramètre gaussien. A partir de ces éléments théoriques, deux stratégies de parallélisation par décomposition en sous-domaines sont formulées et testées sur des exemples géométriques et de traitement d'images. Enfin dans le cadre non supervisé, le classification spectrale est appliquée, d'une part, dans le domaine de la génomique pour déterminer différents profils d'expression de gènes d'une légumineuse et, d'autre part dans le domaine de l'imagerie fonctionnelle TEP, pour segmenter des régions du cerveau présentant les mêmes courbes d'activités temporelles.
70

Langage normalisé pour la description des informations médicales en radiologie

Duquesnel, Philippe 19 June 1969 (has links) (PDF)
.

Page generated in 0.0564 seconds