• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 11
  • 5
  • Tagged with
  • 33
  • 33
  • 25
  • 23
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Mobilités urbaines et données en ligne pour l'étude des maladies vectorielles à Delhi (Inde) et Bangkok (Thaïlande) / Urban mobility and online data for the study of vector borne diseases in Delhi (India) and Bangkok (Thailand)

Cebeillac, Alexandre 17 October 2018 (has links)
Des maladies vectorielles émergentes, comme la dengue, aggravent les crises de santé publique dans les mégapoles asiatiques de Bangkok (Thaïlande) et Delhi (Inde). Les liens entre les moustiques et l’environnement urbain ont été documentés mais la compréhension des mobilités humaines, en tant qu’élément primordial de diffusion des virus, reste un objet de recherche d'intérêt général à développer.En l'absence de données institutionnelles adaptées, notre recherche s'est d'abord orientée vers des enquêtes de terrain, puis sur la collecte, le traitement, la comparaison et la critique de données provenant d'acteurs majeurs d'Internet (Twitter, Facebook, Google, Microsoft). Leur potentiel varie selon les zones géographiques, mais elles permettent d'éclairer l'organisation et la structure des villes étudiées. De plus, elles font ressortir les temporalités et les interactions intra-urbaines. Toutefois, il semble encore difficilement envisageable de se passer de connaissances acquises in situ. En utilisant le concept d'espace d'activité, nous proposons une méthode permettant de produire des agendas individuels synthétiques, générés à partir de données Twitter et d'enquêtes de terrains. Il s'agit là d'une première étape dans l'élaboration d'un modèle de mobilité individu-centré à base d'agents. / Emerging vector-borne diseases such as dengue intensify public health crises in the Asian megacities of Bangkok (Thailand) and Delhi (India). The links between mosquitoes and the urban environment are well documented, but our understanding of human movement, as a key element of virus spreading, has yet to be fully explored as a research subject. Given the paucity in adequate or available institutional data, our research first focused on field surveys, and then on the collection, comparison and critique of data collected from major Internet platforms (Twitter, Facebook, Google, Microsoft). Their potential varies from one geographical area to another, still they shed light on the organization and structure of the studied cities. Moreover, they highlight intra-urban interactions and timeframes. However, carrying out such studies without knowledge acquired from the field seems unadapted. Using the concept of activity space, we propose a method to produce individual synthetic agendas, generated from Twitter data and field surveys. This is a first step in the development of an agent-based model of individual mobility.
22

Sélection de caractéristiques stables pour la segmentation d'images histologiques par calcul haute performance / Robust feature selection for histology images through high performance computing

Bouvier, Clément 18 January 2019 (has links)
L’histologie produit des images à l’échelle cellulaire grâce à des microscopes optiques très performants. La quantification du tissu marqué comme les neurones s’appuie de plus en plus sur des segmentations par apprentissage automatique. Cependant, l’apprentissage automatique nécessite une grande quantité d’informations intermédiaires, ou caractéristiques, extraites de la donnée brute multipliant d’autant la quantité de données à traiter. Ainsi, le nombre important de ces caractéristiques est un obstacle au traitement robuste et rapide de séries d’images histologiques. Les algorithmes de sélection de caractéristiques pourraient réduire la quantité d’informations nécessaires mais les ensembles de caractéristiques sélectionnés sont peu reproductibles. Nous proposons une méthodologie originale fonctionnant sur des infrastructures de calcul haute-performance (CHP) visant à sélectionner des petits ensembles de caractéristiques stables afin de permettre des segmentations rapides et robustes sur des images histologiques acquises à très haute-résolution. Cette sélection se déroule en deux étapes : la première à l’échelle des familles de caractéristiques. La deuxième est appliquée directement sur les caractéristiques issues de ces familles. Dans ce travail, nous avons obtenu des ensembles généralisables et stables pour deux marquages neuronaux différents. Ces ensembles permettent des réductions significatives des temps de traitement et de la mémoire vive utilisée. Cette méthodologie rendra possible des études histologiques exhaustives à haute-résolution sur des infrastructures CHP que ce soit en recherche préclinique et possiblement clinique. / In preclinical research and more specifically in neurobiology, histology uses images produced by increasingly powerful optical microscopes digitizing entire sections at cell scale. Quantification of stained tissue such as neurons relies on machine learning driven segmentation. However such methods need a lot of additional information, or features, which are extracted from raw data multiplying the quantity of data to process. As a result, the quantity of features is becoming a drawback to process large series of histological images in a fast and robust manner. Feature selection methods could reduce the amount of required information but selected subsets lack of stability. We propose a novel methodology operating on high performance computing (HPC) infrastructures and aiming at finding small and stable sets of features for fast and robust segmentation on high-resolution histological whole sections. This selection has two selection steps: first at feature families scale (an intermediate pool of features, between space and individual feature). Second, feature selection is performed on pre-selected feature families. In this work, the selected sets of features are stables for two different neurons staining. Furthermore the feature selection results in a significant reduction of computation time and memory cost. This methodology can potentially enable exhaustive histological studies at a high-resolution scale on HPC infrastructures for both preclinical and clinical research settings.
23

Au coeur de la série télé Friends : corrélations inter-sujets de l'activité cérébrale et cardiaque à l'aide des quantités massives de données individuelles du projet CNeuroMod

Lespinasse, François 04 1900 (has links)
cneuromod.ca / Les Corrélations Inter-Sujets (ISC) des signaux corps-cerveaux permettent-elles de repérer les processus affectifs partagés par deux individus ? Le présent mémoire propose une approche complémentaire pour étudier les ISC corps-cerveaux en réponse à des récits audiovisuels en analysant les enregistrements multimodaux de six participants ayant regardé quatre saisons de la série télévisée Friends. Nous avons tenté de déterminer si une activité cardiaque synchronisée, mesurée à l'aide des ISC du rythme cardiaque (HR-ISC), se produit dans les mêmes fenêtres temporelles qu’une synchronisation de l’activité localisée dans les aires cérébrales reliées aux émotions chez chaque paire de sujets séparément. Les analyses ISC de l'activité cérébrale (mesurée avec imagerie par résonance magnétique fonctionnelle; IRMf) et cardiaque (mesurée avec la photopléthysmographie; PPG) ont été effectuées dans le contexte d'une tâche de visionnement libre incluse dans le projet Courtois-Neuromod (Bellec & Boyle, 2019; Boyle et al., 2022) consistant à écouter des épisodes de Friends. Des ISC temporelles univariées ont été utilisées pour estimer le degré de synchronisation propre à chaque paire d'individus. Nos résultats, en accord avec la littérature, ont montré un niveau plus élevé d’ISC cérébrales pour les aires sensorielles que pour les aires non-sensorielles (Kauppi et al., 2010; Nastase et al., 2019). Les paires de sujets ont également montré un niveau significatif de synchronisation cardiaque moyenne. Contrairement à notre hypothèse, la modélisation de la variabilité des ISC cérébrales et cardiaques chez chaque paire de sujets suggère que la synchronisation cardiaque ne coïncide pas linéairement avec une synchronisation temporellement stable ou localisée de l’activité cérébrale. / Can shared affective processes of two individuals be tracked down by brain-body Inter-Subject Correlations (ISC)? We propose a complementary approach to investigating brain-body ISC in response to audiovisual narratives by analyzing multimodal recordings from six subjects who watched four seasons of the Friends TV show. We specifically asked whether consistent cardiac activity assessed using heart rate ISC (HR-ISC) yields localized synchronization in emotional areas of the brain in each pair of subjects. ISC analyses of brain (functional magnetic resonance imaging; fMRI) and cardiac (photoplethysmography; PPG) activity were carried out in the context of a free viewing task included in the Courtois-Neuromod project (Bellec & Boyle, 2019; Boyle et al., 2022). Univariate temporal ISC were used to estimate the degree of synchronization specific to each pair of individuals. Our results are in line with the literature in showing a distinctive level of Brain-ISC for sensory and non-sensory areas (Kauppi et al., 2010; Nastase et al., 2019). Moreover, every subject showed a significant level of cardiac synchronization as nonparametric hypothesis testing reports average HR-ISC is larger than zero. Modeling the variability of Brain-ISC and HR-ISC in specific pairs of subjects suggests that cardiac synchronization does not linearly coincide with temporally stable nor localized synchronization in the brain. On this ground, we suggest that subjects submitted to the same audiovisual narrative might not synchronize as they access a shared cognitive representation (Madsen & Parra, 2022; Nastase et al., 2019) but rather as they perform similar “mental actions” (Sandved-Smith et al., 2021).
24

La vie privée à l’ère des données massives

Landry, Rose 02 1900 (has links)
Ce mémoire propose une analyse conceptuelle de la vie privée et des enjeux éthiques qui s’y rapportent à l’ère des données massives et de l’essor de l’intelligence artificielle. Alors que la définition du concept de vie privée est encore disputée, les défis liés à son maintien dans le monde numérique d'aujourd'hui sont indéniables. L’analyse de ces enjeux requiert de faire appel à des éléments conceptuels provenant de la philosophie de l’information, mais également aux notions de structures de pouvoir tirées de la philosophie politique et de la sociologie. À travers ce prisme, ce travail offre un survol des éléments essentiels au traitement des enjeux de vie privée dans le contexte actuel d’utilisation des données massives, et défend qu’en l’absence de processus adéquats pour protéger et préserver la vie privée d'une personne en ligne, la capacité à maintenir une vie privée numérique devient illusoire. En définitive, un argument moral en faveur d’une meilleure protection de la vie privée en ligne est présenté, démontrant que la vie privée est notamment garante de l’autonomie des personnes. / This essay provides a conceptual analysis of privacy and the ethical issues that surround it in the age of big data and artificial intelligence. While the definition of privacy is still disputed, the challenges of maintaining it in today’s digital world are undeniable. In order to analyze these challenges, one can combine conceptual elements taken from the philosophy of information with notions of power found in political philosophy and sociology. Through this lens, this paper offers an overview of how one can address privacy-related ethical concerns in the current context of massive data collection, analysis and use. It is argued that, without adequate processes in place to protect and preserve one’s privacy online, the ability to maintain digital privacy becomes illusory. This paper concludes by providing a moral argument to demonstrate how privacy can be better preserved online, demonstrating that privacy is notably a condition of personal autonomy.
25

Deep dive into social network and economic data : a data driven approach for uncovering temporal ties, human mobility, and socioeconomic correlations / Immersion dans les réseaux sociaux et les données économiques : une approche orientée donnée afin d'étudier les liens temporels, la mobilité humaine et les corrélations socio-économiques

Leo, Yannick 16 December 2016 (has links)
Dans cette thèse, j'étudie des jeux de données concernant des liens sociaux entre personnes (appels et SMS), leur mobilité ainsi que des informations économiques sur ces personnes, comme leur revenu et leurs dépenses. Les sept travaux couvrent un spectre assez large et apportent des contributions en informatique des réseaux mais aussi en sociologie, économie et géographie. Les questions posées sont très diverses. Comment quantifier la perte d'information causée par une agrégation de flot de liens en série de graphe ? Comment inférer les mouvements des utilisateurs quand on ne connaît que les localisations des utilisateurs aux moments des appels, et que l'on ne détecte donc que les mouvements qui ont eu lieu entre deux appels consécutifs, sans connaître leur nombre ni les instants auxquels ils ont lieu ? Est-il possible de transmettre des SMS dans une région dense en utilisant la densité des téléphones, la mobilité des utilisateurs ainsi que la localité des messages échangés ? Est-il possible de comprendre les inégalités sociales avec une approche Big Data ? Cette dernière question fait l'objet d'une première étude socio-économique approfondie au prisme du Big Data. Il a été possible d'étudier à grande échelle la stratification de la société, l'existence de clubs de riches, la ségrégation spatiale et la structure des dépenses par classe sociale.Au delà de la variété de ces études et de ces nombreuses applications, cette thèse montre que l'analyse de données individuelles riches à l'échelle d'une population permettent de répondre à de nouvelles questions et à d'anciennes hypothèses avec une approche Big Data. Cette thèse tient à mettre l'accent sur la potentialité d'une approche Big Data mais aussi de sa complémentarité avec les approches classiques (modélisation, sociologie avec enquêtes, …). Un effort particulier a été mis dans l'explication des étapes qui amènent aux résultats et dans la prise en compte des biais ce qui est trop souvent négligé. / In this thesis, I have carried out data-driven studies based on rich, large-scale combined data sets including social links between users (calls and SMS), their demographic parameters (age and gender), their mobility and their economic information such as income and spendings. These seven studies bring insights in network science but also in sociology, economy and geography. The questions asked are very diversified. How can one quantify the loss of temporal information caused by the aggregation of link streams into series of graphs? How can one infer mobility of a user from his or her localisations of calls? Is it possible to transmit SMS in a dense region by using the density of phones, the mobility of users and the locality of the messages? How can one quantify and prove empirically the social stratification of the society at a large population scale? I present, for this last question, a first socio-economic study with a data-driven approach. It has been possible to study, at a very large scale, the stratification of the society, the existence of "rich-clubs", the spatial segregation and purchase patterns for each social class. Beyond the variety of studies and their numerous applications, this thesis shows that the analysis of individual rich combined datasets at a large population scale gives the opportunity to answer long-standing hypotheses and to address novel questions. This work not only points out the potentiality of Big Data approach but also its complementarity to classical approaches (modelization, surveys, …). Particular attention was given in order to explain each steps that lead to results and to take into account biases which is too often neglected.
26

La visualisation d’information pour les données massives : une approche par l’abstraction de données / Information visualization for big data : a data abstraction approach

Sansen, Joris 04 July 2017 (has links)
L’évolution et la démocratisation des technologies ont engendré une véritable explosion de l’information et notre capacité à générer des données et le besoin de les analyser n’a jamais été aussi important. Pourtant, les problématiques soulevées par l’accumulation de données (stockage, temps de traitement, hétérogénéité, vitesse de captation/génération, etc. ) sont d’autant plus fortes que les données sont massives, complexes et variées. La représentation de l’information, de part sa capacité à synthétiser et à condenser des données, se constitue naturellement comme une approche pour les analyser mais ne résout pas pour autant ces problèmes. En effet, les techniques classiques de visualisation sont rarement adaptées pour gérer et traiter cette masse d’informations. De plus,les problèmes que soulèvent le stockage et le temps de traitement se répercutent sur le système d’analyse avec par exemple, la distanciation de plus en plus forte entre la donnée et l’utilisateur : le lieu où elle sera stockée et traitée et l’interface utilisateur servant à l’analyse. Dans cette thèse nous nous intéressons à ces problématiques et plus particulièrement à l’adaptation des techniques de visualisation d’informations pour les données massives. Pour cela, nous nous intéressons tout d’abord à l’information de relation entre éléments, comment est-elle véhiculée et comment améliorer cette transmission dans le contexte de données hiérarchisées. Ensuite, nous nous intéressons à des données multivariées,dont la complexité à un impact sur les calculs possibles. Enfin, nous présentons les approches mises en oeuvre pour rendre nos méthodes compatibles avec les données massives. / The evolution and spread of technologies have led to a real explosion of information and our capacity to generate data and our need to analyze them have never been this strong. Still, the problems raised by such accumulation (storage, computation delays, diversity, speed of gathering/generation, etc. ) is as strong as the data are big, complex and varied. Information visualization,by its ability to summarize and abridge data was naturally established as appropriate approach. However, it does not solve the problem raised by Big Data. Actually, classical visualization techniques are rarely designed to handle such mass of information. Moreover, the problems raised by data storage and computation time have repercussions on the analysis system. For example,the increasing distance between the data and the analyst : the place where the data is stored and the place where the user will perform the analyses arerarely close. In this thesis, we focused on these issues and more particularly on adapting the information visualization techniques for Big Data. First of all focus on relational data : how does the existence of a relation between entity istransmitted and how to improve this transmission for hierarchical data. Then,we focus on multi-variate data and how to handle their complexity for the required computations. Finally, we present the methods we designed to make our techniques compatible with Big Data.
27

Cartography of chemical space / Cartographie de l'espace chimique

Gaspar, Héléna Alexandra 29 September 2015 (has links)
Cette thèse est consacrée à la cartographie de l’espace chimique ; son but est d’établir les bases d’un outil donnant une vision d’ensemble d’un jeu de données, comprenant prédiction d’activité, visualisation, et comparaison de grandes librairies. Dans cet ouvrage, nous introduisons des modèles prédictifs QSAR (relations quantitatives structure à activité) avec de nouvelles définitions de domaines d’applicabilité, basés sur la méthode GTM (generative topographic mapping), introduite par C. Bishop et al. Une partie de cette thèse concerne l’étude de grandes librairies de composés chimiques grâce à la méthode GTM incrémentale. Nous introduisons également une nouvelle méthode « Stargate GTM », ou S-GTM, permettant de passer de l’espace des descripteurs chimiques à celui des activités et vice versa, appliquée à la prédiction de profils d’activité ou aux QSAR inverses. / This thesis is dedicated to the cartography of chemical space; our goal is to establish the foundations of a tool offering a complete overview of a chemical dataset, including visualization, activity prediction, and comparison of very large datasets. In this work, we introduce new QSAR models (quantitative structure-activity relationship) based on the GTM method (generative topographic mapping), introduced by C. Bishop et al. A part of this thesis is dedicated to the visualization and analysis of large chemical libraries using the incremental version of GTM. We also introduce a new method coined “Stargate GTM” or S-GTM, which allows us to travel from the space of chemical descriptors to activity space and vice versa; this approach was applied to activity profile prediction and inverse QSAR.
28

Acceleration Strategies of Markov Chain Monte Carlo for Bayesian Computation / Stratégies d'accélération des algorithmes de Monte Carlo par chaîne de Markov pour le calcul Bayésien

Wu, Chang-Ye 04 October 2018 (has links)
Les algorithmes MCMC sont difficiles à mettre à l'échelle, car ils doivent balayer l'ensemble des données à chaque itération, ce qui interdit leurs applications dans de grands paramètres de données. En gros, tous les algorithmes MCMC évolutifs peuvent être divisés en deux catégories: les méthodes de partage et de conquête et les méthodes de sous-échantillonnage. Le but de ce projet est de réduire le temps de calcul induit par des fonctions complexes ou à grande efficacité. / MCMC algorithms are difficult to scale, since they need to sweep over the whole data set at each iteration, which prohibits their applications in big data settings. Roughly speaking, all scalable MCMC algorithms can be divided into two categories: divide-and-conquer methods and subsampling methods. The aim of this project is to reduce the computing time induced by complex or largelikelihood functions.
29

L’encadrement juridique de l’exploitation des mégadonnées dans le secteur privé au Québec

Du Perron, Simon 01 1900 (has links)
Les mégadonnées font partie de ces sujets dont on entend parler sans trop savoir ce qu’ils signifient précisément. Souvent associés au domaine de l’intelligence artificielle, ces volumineux ensembles de données sont à la base d’un nombre croissant de modèles d’affaires axés sur la valorisation des données numériques que nous générons au quotidien. Le présent mémoire cherche à démontrer que cette exploitation des mégadonnées par les entreprises ne s’effectue pas dans un vide juridique. Les mégadonnées ne peuvent être considérées comme un objet de droit en l’absence d’une définition formelle. Une revue de la littérature multidisciplinaire à leur sujet, invite à les concevoir comme un actif informationnel doté de cinq caractéristiques principales, soit leur volume, leur vélocité, leur variété, leur valeur et leur véracité. L’analyse de ces caractéristiques permet au juriste d’atteindre une compréhension suffisante de ce phénomène afin de l’aborder sous le prisme du droit positif. Suivant un exercice de qualification juridique, les mégadonnées émergent à la fois comme un bien meuble incorporel et comme un ensemble de documents technologiques portant divers renseignements dont certains peuvent être qualifiés de renseignements personnels. Le cadre juridique applicable à l’exploitation des mégadonnées s’articule donc autour de la protection législative de la vie privée informationnelle qui s’incarne à travers les lois en matière de protection des renseignements personnels. Cet encadrement est complété par certaines règles relatives à la gestion documentaire et au droit à l’égalité. Une manière efficace de présenter cet encadrement juridique est selon le cycle de vie des renseignements personnels au sein des mégadonnées. Ainsi, il appert que les principes issus de l’approche personnaliste et minimaliste du droit québécois à la protection des renseignements personnels s’appliquent tant bien que mal à la collecte des données numériques ainsi qu’à leur traitement par les entreprises. / Big data is one of those topics we keep hearing about without knowing exactly what it means. Often associated with the field of artificial intelligence, these large datasets are the backbone of a growing number of business models that focus on leveraging the digital data we generate on a daily basis. This Master’s thesis seeks to demonstrate that this exploitation of big data by businesses is not happening in a legal vacuum. Big data cannot be considered as an object of rights in the absence of a formal definition. A review of the multidisciplinary literature on the subject invites us to conceive them as an information asset with five main characteristics: volume, velocity, variety, value and veracity. The study of these characteristics allows the jurist to reach a sufficient understanding of the phenomenon in order to approach it through the lens of positive law. Following a legal qualification exercise, big data emerges both as intangible movable property and as a set of technological documents carrying various types of information, some of which can be qualified as personal information. The legal framework governing the exploitation of big data is therefore built around the legislative protection of informational privacy, which is embodied in privacy laws. This framework is complemented by certain rules relating to document management and the right to equality. An effective way to present this legal framework is according to the life cycle of personal information within big data. Thus, it appears that the principles stemming from the personalist and minimalist approach of Quebec's data protection law apply, albeit not without struggle, to the collection of digital data as well as their processing by businesses.
30

Classification, réduction de dimensionnalité et réseaux de neurones : données massives et science des données

Sow, Aboubakry Moussa January 2020 (has links) (PDF)
No description available.

Page generated in 0.0519 seconds