• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4
  • Tagged with
  • 4
  • 4
  • 4
  • 4
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Approches bio-informatiques appliquées aux technologies émergentes en génomique

Lemieux Perreault, Louis-Philippe 02 1900 (has links)
Les études génétiques, telles que les études de liaison ou d’association, ont permis d’acquérir une plus grande connaissance sur l’étiologie de plusieurs maladies affectant les populations humaines. Même si une dizaine de milliers d’études génétiques ont été réalisées sur des centaines de maladies ou autres traits, une grande partie de leur héritabilité reste inexpliquée. Depuis une dizaine d’années, plusieurs percées dans le domaine de la génomique ont été réalisées. Par exemple, l’utilisation des micropuces d’hybridation génomique comparative à haute densité a permis de démontrer l’existence à grande échelle des variations et des polymorphismes en nombre de copies. Ces derniers sont maintenant détectables à l’aide de micropuce d’ADN ou du séquençage à haut débit. De plus, des études récentes utilisant le séquençage à haut débit ont permis de démontrer que la majorité des variations présentes dans l’exome d’un individu étaient rares ou même propres à cet individu. Ceci a permis la conception d’une nouvelle micropuce d’ADN permettant de déterminer rapidement et à faible coût le génotype de plusieurs milliers de variations rares pour un grand ensemble d’individus à la fois. Dans ce contexte, l’objectif général de cette thèse vise le développement de nouvelles méthodologies et de nouveaux outils bio-informatiques de haute performance permettant la détection, à de hauts critères de qualité, des variations en nombre de copies et des variations nucléotidiques rares dans le cadre d’études génétiques. Ces avancées permettront, à long terme, d’expliquer une plus grande partie de l’héritabilité manquante des traits complexes, poussant ainsi l’avancement des connaissances sur l’étiologie de ces derniers. Un algorithme permettant le partitionnement des polymorphismes en nombre de copies a donc été conçu, rendant possible l’utilisation de ces variations structurales dans le cadre d’étude de liaison génétique sur données familiales. Ensuite, une étude exploratoire a permis de caractériser les différents problèmes associés aux études génétiques utilisant des variations en nombre de copies rares sur des individus non reliés. Cette étude a été réalisée avec la collaboration du Wellcome Trust Centre for Human Genetics de l’University of Oxford. Par la suite, une comparaison de la performance des algorithmes de génotypage lors de leur utilisation avec une nouvelle micropuce d’ADN contenant une majorité de marqueurs rares a été réalisée. Finalement, un outil bio-informatique permettant de filtrer de façon efficace et rapide des données génétiques a été implémenté. Cet outil permet de générer des données de meilleure qualité, avec une meilleure reproductibilité des résultats, tout en diminuant les chances d’obtenir une fausse association. / Genetic studies, such as linkage and association studies, have contributed greatly to a better understanding of the etiology of several diseases. Nonetheless, despite the tens of thousands of genetic studies performed to date, a large part of the heritability of diseases and traits remains unexplained. The last decade experienced unprecedented progress in genomics. For example, the use of microarrays for high-density comparative genomic hybridization has demonstrated the existence of large-scale copy number variations and polymorphisms. These are now detectable using DNA microarray or high-throughput sequencing. In addition, high-throughput sequencing has shown that the majority of variations in the exome are rare or unique to the individual. This has led to the design of a new type of DNA microarray that is enriched for rare variants that can be quickly and inexpensively genotyped in high throughput capacity. In this context, the general objective of this thesis is the development of methodological approaches and bioinformatics tools for the detection at the highest quality standards of copy number polymorphisms and rare single nucleotide variations. It is expected that by doing so, more of the missing heritability of complex traits can then be accounted for, contributing to the advancement of knowledge of the etiology of diseases. We have developed an algorithm for the partition of copy number polymorphisms, making it feasible to use these structural changes in genetic linkage studies with family data. We have also conducted an extensive study in collaboration with the Wellcome Trust Centre for Human Genetics of the University of Oxford to characterize rare copy number definition metrics and their impact on study results with unrelated individuals. We have conducted a thorough comparison of the performance of genotyping algorithms when used with a new DNA microarray composed of a majority of very rare genetic variants. Finally, we have developed a bioinformatics tool for the fast and efficient processing of genetic data to increase quality, reproducibility of results and to reduce spurious associations.
2

Approches bio-informatiques appliquées aux technologies émergentes en génomique

Lemieux Perreault, Louis-Philippe 02 1900 (has links)
Les études génétiques, telles que les études de liaison ou d’association, ont permis d’acquérir une plus grande connaissance sur l’étiologie de plusieurs maladies affectant les populations humaines. Même si une dizaine de milliers d’études génétiques ont été réalisées sur des centaines de maladies ou autres traits, une grande partie de leur héritabilité reste inexpliquée. Depuis une dizaine d’années, plusieurs percées dans le domaine de la génomique ont été réalisées. Par exemple, l’utilisation des micropuces d’hybridation génomique comparative à haute densité a permis de démontrer l’existence à grande échelle des variations et des polymorphismes en nombre de copies. Ces derniers sont maintenant détectables à l’aide de micropuce d’ADN ou du séquençage à haut débit. De plus, des études récentes utilisant le séquençage à haut débit ont permis de démontrer que la majorité des variations présentes dans l’exome d’un individu étaient rares ou même propres à cet individu. Ceci a permis la conception d’une nouvelle micropuce d’ADN permettant de déterminer rapidement et à faible coût le génotype de plusieurs milliers de variations rares pour un grand ensemble d’individus à la fois. Dans ce contexte, l’objectif général de cette thèse vise le développement de nouvelles méthodologies et de nouveaux outils bio-informatiques de haute performance permettant la détection, à de hauts critères de qualité, des variations en nombre de copies et des variations nucléotidiques rares dans le cadre d’études génétiques. Ces avancées permettront, à long terme, d’expliquer une plus grande partie de l’héritabilité manquante des traits complexes, poussant ainsi l’avancement des connaissances sur l’étiologie de ces derniers. Un algorithme permettant le partitionnement des polymorphismes en nombre de copies a donc été conçu, rendant possible l’utilisation de ces variations structurales dans le cadre d’étude de liaison génétique sur données familiales. Ensuite, une étude exploratoire a permis de caractériser les différents problèmes associés aux études génétiques utilisant des variations en nombre de copies rares sur des individus non reliés. Cette étude a été réalisée avec la collaboration du Wellcome Trust Centre for Human Genetics de l’University of Oxford. Par la suite, une comparaison de la performance des algorithmes de génotypage lors de leur utilisation avec une nouvelle micropuce d’ADN contenant une majorité de marqueurs rares a été réalisée. Finalement, un outil bio-informatique permettant de filtrer de façon efficace et rapide des données génétiques a été implémenté. Cet outil permet de générer des données de meilleure qualité, avec une meilleure reproductibilité des résultats, tout en diminuant les chances d’obtenir une fausse association. / Genetic studies, such as linkage and association studies, have contributed greatly to a better understanding of the etiology of several diseases. Nonetheless, despite the tens of thousands of genetic studies performed to date, a large part of the heritability of diseases and traits remains unexplained. The last decade experienced unprecedented progress in genomics. For example, the use of microarrays for high-density comparative genomic hybridization has demonstrated the existence of large-scale copy number variations and polymorphisms. These are now detectable using DNA microarray or high-throughput sequencing. In addition, high-throughput sequencing has shown that the majority of variations in the exome are rare or unique to the individual. This has led to the design of a new type of DNA microarray that is enriched for rare variants that can be quickly and inexpensively genotyped in high throughput capacity. In this context, the general objective of this thesis is the development of methodological approaches and bioinformatics tools for the detection at the highest quality standards of copy number polymorphisms and rare single nucleotide variations. It is expected that by doing so, more of the missing heritability of complex traits can then be accounted for, contributing to the advancement of knowledge of the etiology of diseases. We have developed an algorithm for the partition of copy number polymorphisms, making it feasible to use these structural changes in genetic linkage studies with family data. We have also conducted an extensive study in collaboration with the Wellcome Trust Centre for Human Genetics of the University of Oxford to characterize rare copy number definition metrics and their impact on study results with unrelated individuals. We have conducted a thorough comparison of the performance of genotyping algorithms when used with a new DNA microarray composed of a majority of very rare genetic variants. Finally, we have developed a bioinformatics tool for the fast and efficient processing of genetic data to increase quality, reproducibility of results and to reduce spurious associations.
3

Le difficile équilibre entre sécurité et protection des données : comparaison des cadres juridiques français et grec sous l'influence du droit européen / The difficult balance between security and data protection : comparison of French and Greek legal frameworks under the influence of European law

Tsaousis, Georgios 09 April 2014 (has links)
Confronté à sa propre violence, voire aux forces de la nature, l’homme n’a cessé d’exprimer un besoin, celui d’être rassuré et protégé. Ainsi le droit à la sécurité est dès la création des sociétés organisées un principe primordial de leur existence. Depuis les attentats du 11 septembre 2001 la question de la sécurité préoccupe fortement l’actualité politico-médiatique. La mise en place de politiques de sécurité performantes est un objectif qui excite les foules, un facteur qui renforce l’exécutif. Cet objectif est caractérisé comme « besoin social impérieux ». Toutefois sur le plan purement textuel le droit à la sécurité n’apparaît pas d’une façon explicite comme norme constitutionnelle. La sécurité usant des techniques les plus avancées exige, sur le plan juridique, une adaptation du droit à l’ère numérique. Les systèmes de vidéosurveillance, les téléphones portables, la toile et les fichiers automatisés constituent les nouvelles armes de l’appareil policier. A ce titre le traitement des données représente le noyau dur des nouvelles orientations de sécurité. Toutefois l’utilisation des nouvelles technologies pour des raisons liées au maintien du bon ordre nécessite également un autre devoir: le respect des libertés fondamentales préoccupation manifeste du droit. Pour autant, la surestimation des politiques de sécurité et la prolifération des mesures sécuritaires sont susceptibles d’entraîner une certaine dégradation ou un affaiblissement du droit à la protection des données principe fondamental du droit de l’UE dès l’adoption du traité de Lisbonne. Face à ce défi, le droit cherche un juste équilibre entre vie privée et sécurité. Certes, l’équation est ancienne, mais ses modes de résolutions évoluent en raison des innovations technologiques, qui se rient des frontières et mettent à mal le principe de souveraineté territorial inhérent à l’Etat. Les droits nationaux, supportent également mal cette abolition des frontières. La comparaison, des ordres juridiques grecs et français, avec certes leurs différences, en sont de belles illustrations notamment dans le cadre de l’UE où la sécurité nationale en demeurant de la seule responsabilité des Etats membres crée des disparités entre les législations nationales. Dans cet environnement les AAI de protection des données des pays comparés se trouvent à la marge, captives dans des cadres juridiques précis. Seule le juge reste pour faire le contrepoids face aux abus des services policiers. Dans l’état actuel des traités constitutifs, la protection des données traitées à des fins policières par la juridiction luxembourgeoise est impossible. Ainsi la Cour EDH constitue la seule juridiction européenne dotée d’opérer une conciliation des deux exigences fondamentales: maintien de l’ordre public et protection des données. En effet, elle n’exerce qu’un contrôle de proportionnalité des mesures appliquées. Ainsi, l’établissement d’un juste équilibre au moins au sein de l’UE conduit in fine le droit à s’orienter vers la mise en œuvre d’une approche unique des politiques de sécurité à travers d’une éventuelle révision des traités. / Confronted by his own violence and the forces of nature, man has consistently expressed the need to be protected. Since the creation of organized societies, the right of security has been a fundamental principle of his existence. Since the attacks of September 11th, 2001, the question of security is being brought up constantly in the media. The implementation of effective security policies is an exciting objective, a factor that strengthens the executive power. This objective has been characterized as a "pressing social need". However, in the purely textual level, the right of security does not appear explicitly as a constitutional norm. Security using the most advanced techniques requires, legally, the adaptation of law to the digital era. CCTV systems, mobile phones, the word-wide-web and automatic archiving constitute the new weapons of the police apparatus. As such, data processing forms the core of the new security guidelines. Nevertheless, using new technologies for reasons related to the maintenance of public order also requires another duty: respect for fundamental freedoms, law's obvious concern. However, the overestimation of security policies and the proliferation of security measures may cause some degradation and loss of the right of data protection, a fundamental principle of EU law since the adoption of the Lisbon Treaty. Faced with this challenge, law seeks the right balance between privacy and security. Of course, the equation is old, but the ways to solve it evolve due to technological advances that laugh at borders and undermine the state's inherent principle of territorial sovereignty. National laws also handle poorly the abolition of frontiers. Comparison between Greek and French legal systems, albeit with their differences, is a beautiful illustration of this fact, notably within the EU where national security, remaining the sole responsibility of the member states, creates disparities between national laws. In this environment the Independent Administrative Authorities of data protection of the compared countries remain at the margin, trapped in specific legal frameworks. Only the judge remains to the counterweight police abuse. In the current state of the constitutive treaties, protection of processed data for police purposes by the Luxembourg court is impossible. And the ECHR is the only european court capable of providing a balance between the two basic requirements: maintenance of public order and data protection. Indeed, it only exercises a proportionality test of the applied measures. Thus, establishment of a balance at least within the EU ultimately leads law towards the implementation of a unique approach to security policies through a possible revision of the Treaties.
4

Médecine personnalisée et bioéthique : enjeux éthiques dans l'échange et le partage des données génétiques / Personalized medicine and bioethics : ethical issues in the exchange and sharing of genetic data

Stoeklé, Henri-Corto 09 June 2017 (has links)
Du point de vue de la médecine et des sciences du vivant, la médecine personnalisée (MP) est trop souvent réduite à cette idée d'adapter un diagnostic, une prédisposition ou un traitement, en fonction des caractéristiques génétiques d'un individu. Cependant, du point de vue des sciences humaines et sociales, la MP peut être considérée comme un phénomène social complexe en raison d'une existence propre et d'une composition sui generis, de l'effet de contraintes qu'il exerce sur les individus, d'un grand nombre d'interactions et d'interférences entre un grand nombre d'unités, mues d'incertitudes, d'indéterminations, de hasard, d'ordre et de désordre. Selon nous, cet autre point de vue permet de mieux étudier la MP par un travail de recherche en bioéthique, mais avec un nouvel objectif, opposé mais complémentaire de celui du droit et de la philosophie morale, et une nouvelle méthode. En effet, l'objectif de la bioéthique devrait être un travail de recherche prospectif questionnant les normes établies faisant face à un phénomène social complexe émergeant, non l'inverse. Ceci permet de déterminer les bénéfices pour la société, et ses individus, à laisser le phénomène émerger en son sein, et d'étudier des solutions possibles et probables et non des certitudes, pour le présent et le futur. De cette façon, les bénéfices identifiés pourront se produire. Mais cet objectif nécessite une méthode permettant d'étudier le fonctionnement du phénomène dans son ensemble, à l'échelle de la société, sans le réduire à l'a priori de certains individus, en privilégiant ses interactions à ses éléments : il s'agit de la modélisation théorique systémique inductive qualitative. L'idée clé est d'être dans une logique de découverte, non de preuve. Cette nouvelle approche nous a tout d'abord permis de comprendre que la MP ne devrait plus être nommée «personnalisée », ni même « génomique » ou de « précision», mais «médecine des données» (MD) étant donné le caractère centrale de la « donnée » (data) pour son fonctionnement. En effet, les finalités du phénomène semblent être, à partir d'une masse importante de données (génétiques), déduire (Datamining) ou induire (Big Data) différentes informations valorisables au niveau du soin, de la recherche et de l'industrie. Le moyen pour ça semble être le développement d'un réseau d'échange ou de partage d'échantillons biologiques, de données génétiques et d'informations entre patients, cliniciens, chercheurs et industriels, grâce à des voies de communication dématérialisées, qui centralisent le stockage des échantillons biologiques et des données génétiques, et une partie du traitement et de l'analyse, au niveau de centres de soin et de recherche académiques (France), et/ou d'entreprises privées (États-Unis), avec ou sans l'intermédiaire du clinicien. Les enjeux éthiques majeurs semblent donc résider dans les moyens et les modalités d'accès, de stockage et d'usage des données génétiques, car delà découle pour une organisation globalement similaire du phénomène un fonctionnement radicalement (social/libéral) opposé qui questionne certaines normes morales et juridiques. Au final, notre méthode nous a permis d'apporter différents arguments en faveur du consentement éclairé exprès électronique (e-CE) dynamique comme solution et moyen permettant un développement de la MD plus optimal concernant l'accès, le stockage et l'usage des données génétiques que ce soit pour le partage (France) ou l'échange (États-Unis) des données génétiques. / In the context of medicine and life sciences, personalized medicine (PM) is all too often reduced to the idea of adapting a diagnosis, predisposition or treatment according to the genetic characteristics of an individual. However, in human and social sciences, PM may be considered as a complex social phenomenon, due to the proper existence and unique composition of the constraints it imposes on individuals, the large number of interactions and interferences between a large number of units, rich in uncertainties, indeterminations, chance, order and disorder. We feel that this alternative point of view makes it possible to study PM more effectively by bioethics research approaches, but with a new objective, contrasting but complementary to those of law and moral philosophy, and a new method. Indeed, the objective of bioethics should be prospective studies questioning established norms in the face of emerging complex social phenomena, rather than the other way round. This makes it possible to determine the benefits, to society and its individuals, of allowing the phenomenon to emerge fully, and to study possible and probable solutions, rather than certainties, for the present and the future. This may allow the identified benefits to occur. However, this objective requires a method for studying the functioning of the phenomenon as a whole, at the scale of society, without a priori restriction to certain individuals, thereby favoring its interactions over its elements. Qualitative inductive systemic theoretical modeling is just such an approach. The key idea here is a rationale of discovery, rather than of proof. This new approach allowed us to understand that PM should not be called "personalized", or even "genomic" or "precision" medicine, and that the term "data medicine" (DM) should be favored, given the key role of data in its functioning. Indeed, the goal of this phenomenon seems to be to use a large mass of data (genetics) to deduce (data mining) or induce (big data) different types of information useful for medical care, research and industry. The means of achieving this end seems to be the development of a network for exchanging or sharing biological samples, genetic data and information between patients, clinicians, researchers and industrial partners, through electronic communication, with the central storage of biological samples and genetic data, and with treatment and analysis carried out at academic care and research centers (France) or in private companies (United States), with or without the involvement of a clinician. The major ethical issues thus seem to relate to the means and mode of access to, and the storage and use of genetic data, which may lead to a radically opposed (social/liberal) organizations and functioning, calling into question certain moral and legal standards. Finally, our method provided several arguments in favor of the use of dynamic electronic informed consent (e-CE) as a solution optimizing the development of PM in terms of genetic data access, storage and use, for the sharing (France) or exchange (United States) of genetic data.

Page generated in 0.0768 seconds