• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 52
  • 34
  • 9
  • 1
  • 1
  • Tagged with
  • 101
  • 40
  • 33
  • 24
  • 19
  • 15
  • 14
  • 11
  • 10
  • 10
  • 10
  • 10
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Applying game theory to interactions between individuals with asymmetrical roles : the case of online sex offender investigative interviews

Bergeron, Andreanne 05 1900 (has links)
La littérature sur les entrevues d’enquête du milieu policier a mis en évidence les facteurs associés à la confession. Des recherches ont montré que la confession est associée à des suspects plus jeunes (Deslauriers-Varin & St-Yves, 2010; Viljoen, et al., 2005); des personnes d'origine caucasienne (St-Yves, 2002; Viljoen, et al., 2005); des célibataires (St-Yves, 2002); et le type de crime (Moston et coll., 1992; Phillips et Brown, 1998). La recherche a également examiné le rôle de la quantité et la nature de la preuve (p.ex., Brimbal & Luke, 2019 ; Deslauriers-Varin, et al., 2011, 2020 ; Moston & Engelberg, 2011), la manière dont les preuves sont présentées (p.ex., l'utilisation stratégique des preuves; Clemens et al., 2020 ; Granhag et al., 2013), et le rôle des enquêteurs et des techniques d'enquête (p.ex., May, et al., 2017; Snook et al., 2015; Wachi, et al., 2014). Cependant, la littérature sur l'entrevue d’enquête a mis l'accent sur les mesures de corrélation entre la confession et les variables qui peuvent l'influencer comme si elle était stable dans le temps. Pourtant, il existe des preuves que la confession pourrait être un processus instable influencé par des éléments contextuels. Par exemple, des chercheurs ont évoqué le changement de décision (vers l'aveu ou vers le déni) qui s'opère avec les suspects dans le cadre d'un interrogatoire (Bull & Soukara, 2010; Deslauriers-Varin, et al., 2011a ; Walsh et Bull, 2012). Plus récemment, dans la littérature, les chercheurs se sont engagés dans un virage clair vers une analyse de l'entrevue d’enquête qui prenait en compte des différents aspects dynamiques de la situation tel que l’ordre des comportements dans le temps (p.ex., Kelly, et al., 2016 ; Yang, et al., 2017). Pour participer à ce virage et contribuer à la recherche dans le domaine, nous proposons une nouvelle conceptualisation de l'entrevue d’enquête à travers une nouvelle perspective théorique : la Théorie des Jeux. Une discussion sur la théorie et ses concepts est suivie de deux articles empiriques qui visent à mieux étudier les entrevues. Le premier article explore l'influence mutuelle des deux participants sur l’obtention d’information pertinente à l’enquête. Des entretiens enregistrés sur vidéo liés à l'exploitation sexuelle d'enfants sur internet (n = 130) ont été utilisés et les différents comportements des suspects et des enquêteurs ont été analysés pour déterminer s'ils impliquaient (1) l'établissement d'un rapport/le déni actif, (2) la collaboration, (3) la confrontation, (4) l’émotion/réponse, et (5) l’obtention d'informations liées à l’enquête. Les résultats ont montré que les informations pertinentes à l'enquête sont souvent fournies peu de temps après qu'un suspect a offert des informations supplémentaires ou s’est montré émotif (par exemple, pleure). Lorsque l’enquêteur présente des preuves, la probabilité que des informations supplémentaires soient fournies par le suspect augmente immédiatement. Cependant, établir un rapport avec le suspect est efficace à plus long terme alors qu’un effet positif n'est pas immédiatement observé. En utilisant le même échantillon, la deuxième étude explore l'hétérogénéité des stratégies et des comportements des suspects lors d’une entrevue d’enquête ainsi que la stabilité de ces profils dans le temps puisque les comportements des suspects est un sujet rarement abordé dans la littérature contrairement aux comportements de l’interviewer. L'analyse a permis d'identifier la présence de cinq profils différents : 1) Positif ; 2) Justifiant ; 3) Accepter ; 4) Contrôler ; 5) Irrité. L'analyse temporelle montre également que la majorité des suspects restent dans le même profil au cours de l'entretien. Cette thèse a permis d’instaurer une base théorique et méthodologique pour l'étude des interactions sociales asymétriques à travers l'utilisation de la perspective de la Théorie des Jeux. Plus particulièrement, le contexte de l'entrevue d’enquête des délinquants sexuels en ligne a été observé et les résultats pointent vers le fait que l'interaction sociale qui a lieu dans la salle d'interrogatoire est influencée par les stratégies de l’interviewer et du suspect. De plus, les décisions prises par le suspect aux cours de l’entrevue sont explorées et semblent être associés à leurs préférences. La thèse accorde également une attention particulière à la notion complexe de temps ainsi que son impact sur les comportements et propose une évaluation temporelle continue de l'interaction plutôt que de segmenter l’entrevue tel que vu dans la littérature. Les résultats visent à développer une nouvelle façon d’étudier l’entrevue d’enquête afin d’éventuellement fournir des outils pratiques aux policiers sur le type de stratégies à utiliser selon le temps dont ils disposent et sur le type de suspect avec lequel ils travaillent. Les résultats contribuent également à établir des méthodologies pour l’analyse de d'autres types d'interactions asymétriques qui sont courantes dans le domaine de la criminologie. Considérer l’entrevue d’enquête comme étant une interaction sociale représentant un processus qui évolue dans le temps fournit un point de départ pour la création de directives pratiques pour aider les praticiens à accroître la collaboration des suspects. / The literature on police investigative interviewing has highlighted the factors associated with confession. Research has shown that confession is associated with younger suspects (Deslauriers-Varin & St-Yves, 2010; Viljoen, et al., 2005); individuals of Caucasian origin (St-Yves, 2002; Viljoen, et al., 2005); single individuals (St-Yves, 2002); and individuals who have committed less serious crime (Moston et al., 1992; Phillips & Brown, 1998). Research also examines the role of evidence strength (e.g., Brimbal & Luke, 2019; Deslauriers-Varin, et al., 2011, 2020; Moston & Engelberg, 2011), the way in which evidence is presented (e.g., strategic use of evidence; Clemens et al., 2020; Granhag et al., 2013), and the role of police investigators and investigative techniques (e.g., May, et al., 2017; Snook et al., 2015; Wachi, et al., 2014). However, the literature on investigative interviewing has emphasized measures of correlation between confession and the variables that may influence it as if they were stable over time. Yet, there is evidence that confession could be an unstable process influenced by contextual elements. For example, researchers have raised the change in decision (towards confession or even towards denial) that operates with suspects in the context of an interrogation (Bull & Soukara, 2010, Deslauriers-Varin, et al., 2011a; Walsh & Bull, 2012; Verhoeven, 2018). More recently in the literature, researchers engaged in a clear shift toward a more dynamic analysis of investigative interview (e.g., Kelly, et al., 2016; Yang, et al., 2017). To contribute to the research in this field, we propose a new conceptualization of the investigative interview through a new theoretical perspective: Game Theory. A discussion on the theory and its concept leads to two empirical articles that aim to study interviews more effectively. The first one explores the dynamic influence of both participants, the interviewer and the suspect, on suspect's disclosure. Videotaped interviews related to online child sexual exploitation (n=130) were analyzed and the different behaviors of suspects and interviewers were analyzed to determine if they involved (1) rapport building/active denial, (2) collaboration, (3) confrontation, (4) emotion/response, and (5) elicitation of information related to the case. Results showed that information relevant to the investigation is often provided shortly after a suspect has offered additional information or given responses that meet emotional needs (e.g., justifications). The interviewer’s use of available evidence increases the likelihood that additional information will be provided, while the ability to build a rapport with the suspect is effective in the longer term, even if a positive effect is not immediately observed. The second study explores the heterogeneity of strategies and behaviors of suspects during an interview as well as the stability of those profiles as suspects behaviors is a subject that have been overlooked in the literature contrarily to interviewers behaviors. The analysis helped identify the presence of five different profiles: 1) Positive; 2) Justifying; 3) Accepting; 4) Controlling; 5) Irritated. The temporal analysis also shows that the probability that a suspect will continue to exhibit the same profile over the course of the interview is high. This thesis allows to set a theoretical and methodological basis to the study of asymmetrical interaction through the use of the Game Theory perspective. More particularly, the context of investigative interviewing of online sex offenders has been observed and the results point toward the fact that both the suspect and the interviewer influence the course of the social interaction that takes place in the interrogation room. Moreover, the decisions of the suspects have been explored and seems to be taken according to their preferences. The thesis also gives particular attention to the complex notion of time and its influence on behavior and proposes, in the fourth chapter, a continuous timeline evaluation of the interaction instead of a segmented analysis. The findings help develop a new line of research with innovative methods in order to eventually provide practical tools to police investigators on the matter of the type of strategies to use according to the amount of time they have and on the type of suspect they are working with. The findings also contribute to setting methodologies for other types of asymmetrical interaction which are common in the field of criminology. Seeing the interviews as being an interaction process provides a starting point for the creation of practical guidelines to help practitioners increase suspect collaboration during investigative interviews.
62

Optimisation de la collecte de sang : concilier la qualité de service au donneur de sang et l'efficience de l'organisation de la collecte

Alfonso Lizarazo, Edgar 04 July 2013 (has links) (PDF)
Les rapports d'activité de l'Établissement Français du Sang (EFS) font état d'une demande croissante de produits sanguins labiles (PSL) tels les concentrés globules rouges (CGR), les plaquettes, et le plasma. Afin d'assurer la demande vitale en PSL, il est primordial d'optimiser la logistique liée aux activités de collecte du sang et de ses composants. Pour faire face à cette situation, l'EFS Auvergne-Loire mène une réflexion dans le but d'utiliser de manière plus efficiente les dispositifs de collecte en sites fixes et mobiles pour améliorer (i) la qualité de service rendue au donneur, et (ii) l'efficience de l'utilisation des ressources humaines. Dans ce contexte nous avons développé dans cette thèse des outils opérationnels pour (i) la modélisation des dispositifs de collecte, (ii) la régulation des flux de donneurs, et (iii) la planification de collectes mobiles.La méthode d'analyse des dispositifs de collecte est basée sur des techniques de simulation à événements discrets. Une modélisation préalable des flux de donneurs dans les systèmes de collecte en sites fixes et mobiles à l'aide de réseaux de Petri a été proposée. Pour la régulation de flux de donneurs, notamment pour la planification optimale des rendez-vous des donneurs et la planification de la capacité dans les systèmes de collecte au site fixe, deux approches ont été abordées: (a) Construction d'un algorithme basée sur techniques d'optimisation stochastique via simulation ; (b) Programmation mathématique: Modèle de programmation en nombres entiers non-linéaire (MINLP) basée sur réseaux de files d'attente et représentation et évaluation des systèmes à événements discrets à travers de programmation mathématique. Pour la planification de collectes mobiles. Deux types de modèles ont été développés : (a) Au niveau tactique : Modèles de programmation en nombres entiers linéaire (MIP) pour planifier les semaines de collectes pour chaque ensemble disponible sur un horizon de temps pour garantir l'autosuffisance à niveau régional des CGR. (b) Au niveau opérationnel : Modèle de programmation en nombres entiers linéaire (MIP) pour l'organisation du travail des équipes en charge de la collecte.
63

Subject response rates in case-control studies of cancer : time trends, study design determinants, and quality of reporting

Xu, Mengting 04 1900 (has links)
Objectifs: Examiner les tendances temporelles, les déterminants en lien avec le design des études et la qualité des taux de réponse rapportés dans des études cas-témoins sur le cancer publiées lors des 30 dernières années. Méthodes: Une revue des études cas-témoins sur le cancer a été menée. Les critères d'inclusion étaient la publication (i) dans l’un de 15 grands périodiques ciblés et (ii) lors de quatre périodes de publication (1984-1986, 1995, 2005 et 2013) couvrant trois décennies. 370 études ont été sélectionnées et examinées. La méthodologie en lien avec le recrutement des sujets et la collecte de données, les caractéristiques de la population, les taux de participation et les raisons de la non-participation ont été extraites de ces études. Des statistiques descriptives ont été utilisées pour résumer la qualité des taux de réponse rapportés (en fonction de la quantité d’information disponible), les tendances temporelles et les déterminants des taux de réponse; des modèles de régression linéaire ont été utilisés pour analyser les tendances temporelles et les déterminants des taux de participation. Résultats: Dans l'ensemble, les qualités des taux de réponse rapportés et des raisons de non-participation étaient très faible, particulièrement chez les témoins. La participation a diminué au cours des 30 dernières années, et cette baisse est plus marquée dans les études menées après 2000. Lorsque l'on compare les taux de réponse dans les études récentes a ceux des études menées au cours de 1971 à 1980, il y a une plus grande baisse chez les témoins sélectionnés en population générale ( -17,04%, IC 95%: -23,17%, -10,91%) que chez les cas (-5,99%, IC 95%: -11,50%, -0,48%). Les déterminants statistiquement significatifs du taux de réponse chez les cas étaient: le type de cancer examiné, la localisation géographique de la population de l'étude, et le mode de collecte des données. Le seul déterminant statistiquement significatif du taux de réponse chez les témoins hospitaliers était leur localisation géographique. Le seul déterminant statistiquement significatif du taux de participation chez les témoins sélectionnés en population générale était le type de répondant (sujet uniquement ou accompagné d’une tierce personne). Conclusion: Le taux de participation dans les études cas-témoins sur le cancer semble avoir diminué au cours des 30 dernières années et cette baisse serait plus marquée dans les études récentes. Afin d'évaluer le niveau réel de non-participation et ses déterminants, ainsi que l'impact de la non-participation sur la validité des études, il est nécessaire que les études publiées utilisent une approche normalisée pour calculer leurs taux de participation et qu’elles rapportent ceux-ci de façon transparente. / Objectives: To examine the time trends, study design determinants, and quality of reporting of response rates in published case-control studies of cancer over the past 30 years. Methods: A review was conducted of case-control studies of cancer. Inclusion criteria required publications in 15 major journals, during four publication periods spanning three decades (1984-86, 1995, 2005 and 2013). 370 studies were selected and reviewed. Information on study base ascertainment, data collection methods, population characteristics, response rates, and reasons for non-participation was extracted. Quality of response rate reporting was assessed based on the amount of information reported. Descriptive statistics were used to summarize the quality of the reporting, time trends and the determinants of response rates; linear regression models were used to analyse time trends and determinants of response rates. Results: Overall, the quality of reporting of response rates and reasons for non-participation was very poor, especially for control series. Participation has declined over the past 30 years, and this decline was steeper in studies conducted after 2000. When comparing the response rates in recent studies to that in studies conducted during 1971-1980, there was a greater decline of this rate in population controls (-17.04%, 95% CI: -23.17%, -10.91%) than in cases (-5.99%, 95% CI: -11.50%, -0.48%). Statistically significant determinants of response rates among cases were: cancer type examined, location of the study population, and mode of data collection. The only statistically significant determinant of response rates among medical source controls was location of the study population. The only statistically significant determinant of response rates among population controls was type of respondent (self only or self and proxy) accepted by studies. Conclusion: Response rates in case-control studies of cancer seem to have declined and this decline has accelerated in recent studies. In order to appreciate the true level of non-participation and its determinants, as well as the impact of non-participation on validity of studies, there is a need for more transparent reporting and standardized calculation of response rates in published studies.
64

Lessivage de l'atmosphère par la pluie : approche microphysique / Below-cloud scavenging by the rain : a microphysical approach

Quérel, Arnaud 07 December 2012 (has links)
Les particules d’aérosol sont une composante essentielle de l’atmosphère, et cette importance s’amplifie lors d’une éventuelle libération dans l’atmosphère de matières radioactives sous forme particulaire. En effet, pour améliorer la connaissance autour de la contamination des sols consécutive à une émission de particules, il est important d’étudier le rabattement des particules par la pluie sous le nuage. Dans ce but, des expériences sont menées à l’échelle microphysique (expérience BERGAME) pour quantifier l’efficacité des gouttes de pluie à collecter les particules. Ceci permet au final d’améliorer la modélisation du lessivage des aérosols atmosphériques par la pluie à méso-échelle. Le modèle utilisé est DESCAM qui décrit de manière détaillée les distributions granulométriques en masse et en nombre des particules pour chaque type d’aérosol et des hydrométéores et calcule leur évolution due aux processus microphysiques nuageux. L’expérience BERGAME a été dimensionnée et construite pour mesurer l’efficacité de collecte car les mesures de ce paramètre se sont avérées en désaccord avec les modèles classiques de la littérature pour les gouttes de pluie d’un diamètre supérieur au millimètre. Un montage optique a été imaginé pour tenter de comprendre quels mécanismes de collecte sont négligés dans les modèles standards. Un nouveau modèle d’efficacité de collecte pour les gouttes d’un diamètre de 2 mm est alors proposé prenant en compte pour les grosses gouttes une recirculation turbulente dans le sillage de la goutte capable d’augmenter de façon importante la capture des petites particules. Les nouvelles efficacités de collecte ainsi mesurées et paramétrées sont ajoutées au modèle de nuage DESCAM. Des modifications significatives sur la modélisation du lessivage par DESCAM sont observées, ouvrant ainsi la voie à une amélioration de la modélisation de la contamination des sols par les modèles de dispersion atmosphérique. / Aerosol particles are an important component of the atmosphere and are of great concern in the case of an accidental release of radioactive particles. To better understand ground contamination due to a particle release in the vicinity of an accident, it is important to study the particle scavenging associated with rain. To achieve this objective during this thesis, an experiment at the microphysical scale (BERGAME experiment) was developed and the modelling of the washout was improved at mesoscale. The model used was DESCAM : a microphysics model that describes the bin size distributions for aerosol particles and hydrometeors and calculates their evolution due to microphysical cloud processes. The BERGAME experiment was designed and built to measure the collection efficiencies which disagree with theoretical calculation. Using an optical method, it was shown that those discrepancies were due to rear capture. A new model of collection efficiencies for the 2 mm drops was proposed that takes into account for big raindrops the turbulent circulation occurring downstream increasing significantly the capture of small particles. The corrected collection efficiencies were implemented in the DESCAM model. By this way, significant modifications of the modelling were observed and studied. This is an important step toward an accurate modelling of the ground contamination in atmospheric dispersion models.
65

Synchronization and Fault-tolerance in Distributed Algorithms / Synchronisation et tolérance aux défaillances en algoritmique répartie

Blanchard, Peva 24 September 2014 (has links)
Dans la première partie de ce mémoire, nous étudions le modèle des protocoles de population, introduit dans\cite{DBLP:conf/podc/BeauquierBCK10}. Ce modèle permet de représenter les grands réseaux de capteurs (ou agents) mobiles anonymes dotés de faibles ressources. Les contraintes de ce modèle sont si sévères que la plupart des problèmes classiques d'algorithmique répartie, tels que la collecte de données, le consensus ou l'élection d'un leader, sont difficiles à analyser, sinon impossibles à résoudre.Nous commençons notre étude par le problème de collecte de données. Celui-ci consiste principalement à transférer des valeurs réparties dans la population d'agents mobiles vers une station de base en un minimum de temps (temps de convergence). En utilisant un hypothèse d'équité, dite hypothèse de temps couvertures et introduite dans \cite{DBLP:conf/podc/BeauquierBCK10}, nous calculons des bornes optimales sur le temps de convergences de différents protocoles concrets. Ensuite, nous étudions le problème du consensus et d'élection de leader. Il a été montré que ces problèmes sont impossibles à résoudre dans le modèle original des protocoles de population. Pour contourner cette impossibilité, il est possible d'adjoindre au modèle certaines hypothèses sous la forme d'oracles. Nous proposons ensuite divers oracles permettant de résoudre le problème du consensus et d'élection de leader dans divers environnements, et nous étudions leurs puissances relatives. Ce faisant, nous développons un cadre formel permettant de représenter toutes les variétés d'oracles introduites, ainsi que leur possibles relations.Dans la seconde partie de ce mémoire, nous étudions le problème de la réplication de machine à états finis dans le modèle (classique) de communications asynchrones à passage de message. L'algorithme Paxos, introduit dans \cite{lamportPartTimeParliament,lamport01paxos} est une solution (partielle) bien connue au problème de la réplication capable de tolérer des pannes crash. Notre contribution, dans cette partie,consiste à améliorer Paxos afin qu'il puisse également tolérer des défaillances transitoires. Ce faisant, nous définissons la notions de machine répliquée pratiquement autostable. / In the first part of this thesis, we focus on a recent model, calledpopulation protocols, which describes large networksof tiny wireless mobile anonymous agents with very limited resources.The harsh constraints of the original model makes most of theclassical problems of distributed algorithmics, such as datacollection, consensus and leader election, either difficult to analyzeor impossible to solve.We first study the data collection problem, which mainly consists intransferring some values to a base station. By using a fairnessassumption, known as cover times, we compute tight bounds on theconvergence time of concrete protocols. Next, we focus on theproblems of consensus and leader election. It is shown that theseproblems are impossible in the original model. To circumvent theseissues, we augment the original model with oracles, and study theirrelative power. We develop by the way a formal framework generalenough to encompass various sorts of oracles, as well as theirrelations.In the second part of the thesis, we study the problem ofstate-machine replication in the more classical model of asynchronousmessage-passing communication. The Paxos algorithm is a famous(partial) solution to the state-machine replication problem whichtolerates crash failures. Our contribution is the enhancement of Paxosin order to tolerate transient faults as well. Doing so, we define thenotion of practically self-stabilizing replicated state-machine.
66

Collecte orientée sur le Web pour la recherche d’information spécialisée / Focused document gathering on the Web for domain-specific information retrieval

De Groc, Clément 05 June 2013 (has links)
Les moteurs de recherche verticaux, qui se concentrent sur des segments spécifiques du Web, deviennent aujourd'hui de plus en plus présents dans le paysage d'Internet. Les moteurs de recherche thématiques, notamment, peuvent obtenir de très bonnes performances en limitant le corpus indexé à un thème connu. Les ambiguïtés de la langue sont alors d'autant plus contrôlables que le domaine est bien ciblé. De plus, la connaissance des objets et de leurs propriétés rend possible le développement de techniques d'analyse spécifiques afin d'extraire des informations pertinentes.Dans le cadre de cette thèse, nous nous intéressons plus précisément à la procédure de collecte de documents thématiques à partir du Web pour alimenter un moteur de recherche thématique. La procédure de collecte peut être réalisée en s'appuyant sur un moteur de recherche généraliste existant (recherche orientée) ou en parcourant les hyperliens entre les pages Web (exploration orientée).Nous étudions tout d'abord la recherche orientée. Dans ce contexte, l'approche classique consiste à combiner des mot-clés du domaine d'intérêt, à les soumettre à un moteur de recherche et à télécharger les meilleurs résultats retournés par ce dernier.Après avoir évalué empiriquement cette approche sur 340 thèmes issus de l'OpenDirectory, nous proposons de l'améliorer en deux points. En amont du moteur de recherche, nous proposons de formuler des requêtes thématiques plus pertinentes pour le thème afin d'augmenter la précision de la collecte. Nous définissons une métrique fondée sur un graphe de cooccurrences et un algorithme de marche aléatoire, dans le but de prédire la pertinence d'une requête thématique. En aval du moteur de recherche, nous proposons de filtrer les documents téléchargés afin d'améliorer la qualité du corpus produit. Pour ce faire, nous modélisons la procédure de collecte sous la forme d'un graphe triparti et appliquons un algorithme de marche aléatoire biaisé afin d'ordonner par pertinence les documents et termes apparaissant dans ces derniers.Dans la seconde partie de cette thèse, nous nous focalisons sur l'exploration orientée du Web. Au coeur de tout robot d'exploration orientée se trouve une stratégie de crawl qui lui permet de maximiser le rapatriement de pages pertinentes pour un thème, tout en minimisant le nombre de pages visitées qui ne sont pas en rapport avec le thème. En pratique, cette stratégie définit l'ordre de visite des pages. Nous proposons d'apprendre automatiquement une fonction d'ordonnancement indépendante du thème à partir de données existantes annotées automatiquement. / Vertical search engines, which focus on a specific segment of the Web, become more and more present in the Internet landscape. Topical search engines, notably, can obtain a significant performance boost by limiting their index on a specific topic. By doing so, language ambiguities are reduced, and both the algorithms and the user interface can take advantage of domain knowledge, such as domain objects or characteristics, to satisfy user information needs.In this thesis, we tackle the first inevitable step of a all topical search engine : focused document gathering from the Web. A thorough study of the state of art leads us to consider two strategies to gather topical documents from the Web: either relying on an existing search engine index (focused search) or directly crawling the Web (focused crawling).The first part of our research has been dedicated to focused search. In this context, a standard approach consists in combining domain-specific terms into queries, submitting those queries to a search engine and down- loading top ranked documents. After empirically evaluating this approach over 340 topics, we propose to enhance it in two different ways: Upstream of the search engine, we aim at formulating more relevant queries in or- der to increase the precision of the top retrieved documents. To do so, we define a metric based on a co-occurrence graph and a random walk algorithm, which aims at predicting the topical relevance of a query. Downstream of the search engine, we filter the retrieved documents in order to improve the document collection quality. We do so by modeling our gathering process as a tripartite graph and applying a random walk with restart algorithm so as to simultaneously order by relevance the documents and terms appearing in our corpus.In the second part of this thesis, we turn to focused crawling. We describe our focused crawler implementation that was designed to scale horizontally. Then, we consider the problem of crawl frontier ordering, which is at the very heart of a focused crawler. Such ordering strategy allows the crawler to prioritize its fetches, maximizing the number of in-domain documents retrieved while minimizing the non relevant ones. We propose to apply learning to rank algorithms to efficiently order the crawl frontier, and define a method to learn a ranking function from existing crawls.
67

Des algorithmes presque optimaux pour les problèmes de décision séquentielle à des fins de collecte d'information / Near-Optimal Algorithms for Sequential Information-Gathering Decision Problems

Araya-López, Mauricio 04 February 2013 (has links)
Cette thèse s'intéresse à des problèmes de prise de décision séquentielle dans lesquels l'acquisition d'information est une fin en soi. Plus précisément, elle cherche d'abord à savoir comment modifier le formalisme des POMDP pour exprimer des problèmes de collecte d'information et à proposer des algorithmes pour résoudre ces problèmes. Cette approche est alors étendue à des tâches d'apprentissage par renforcement consistant à apprendre activement le modèle d'un système. De plus, cette thèse propose un nouvel algorithme d'apprentissage par renforcement bayésien, lequel utilise des transitions locales optimistes pour recueillir des informations de manière efficace tout en optimisant la performance escomptée. Grâce à une analyse de l'existant, des résultats théoriques et des études empiriques, cette thèse démontre que ces problèmes peuvent être résolus de façon optimale en théorie, que les méthodes proposées sont presque optimales, et que ces méthodes donnent des résultats comparables ou meilleurs que des approches de référence. Au-delà de ces résultats concrets, cette thèse ouvre la voie (1) à une meilleure compréhension de la relation entre la collecte d'informations et les politiques optimales dans les processus de prise de décision séquentielle, et (2) à une extension des très nombreux travaux traitant du contrôle de l'état d'un système à des problèmes de collecte d'informations / The purpose of this dissertation is to study sequential decision problems where acquiring information is an end in itself. More precisely, it first covers the question of how to modify the POMDP formalism to model information-gathering problems and which algorithms to use for solving them. This idea is then extended to reinforcement learning problems where the objective is to actively learn the model of the system. Also, this dissertation proposes a novel Bayesian reinforcement learning algorithm that uses optimistic local transitions to efficiently gather information while optimizing the expected return. Through bibliographic discussions, theoretical results and empirical studies, it is shown that these information-gathering problems are optimally solvable in theory, that the proposed methods are near-optimal solutions, and that these methods offer comparable or better results than reference approaches. Beyond these specific results, this dissertation paves the way (1) for understanding the relationship between information-gathering and optimal policies in sequential decision processes, and (2) for extending the large body of work about system state control to information-gathering problems
68

Revisiter le marché du travail urbain en Amérique Latine : segmentation, réseaux sociaux et qualité de l'emploi à Bogota / Revisiting the urban labor market in Latin America : segmentation, social networks and quality of employment in Bogota

Deguilhem, Thibaud 07 December 2018 (has links)
Dans le contexte latino-américain, façonné par une urbanisation rapide, de fortes inégalités et une faiblesse des institutions de placement de la main d’oeuvre, les problématiques liées à la structure du marché du travail et à l’effet des dispositifs d’intermédiation relationnelle sur les performances dans l’emploi apparaissent fondamentales. Cette thèse se propose de décrire la structure du marché du travail et d’analyser les effets des réseaux de relations sur la qualité de l’emploi et les performances des actifs occupés à Bogota (Colombie). Elle adopte une démarche de recherche pluridisciplinaire reposant sur un cadre d’analyse socioéconomique et institutionnaliste. Dans une première partie, une réflexion théorique et analytique est tout d’abord conduite autour de la notion de qualité de l’emploi envisagée comme un nouvel indicateur de performance. Au prisme de la théorie de la segmentation du marché du travail, l’analyse de ce nouvel indicateur permet d’envisager les logiques et les effets différentiés du recours aux relations sociales. À partir de données quantitatives (enquête ménage geih de 2013) et qualitatives (entretiens collectifs), l’analyse exploratoire multidimensionnelle, économétrique et compréhensive permet de vérifier que : (i.) la qualité de l’emploi traduit une structure fortement polarisée du marché du travail à Bogota, (ii.) l’usage des relations est associé différemment à la qualité de l’emploi des travailleurs en fonction de leur segment, des réseaux de nécessité (segment vulnérable) s’opposant à des réseaux d’opportunité (segment protégé). Dans une seconde partie, s’appuyant sur les théories de l’encastrement et de la sociologie des réseaux, la thèse se propose d’explorer plus précisément les effets des différentes dimensions, configurations et mécanismes de réseau de relations personnelles sur les performances dans l’emploi. À partir d’un système spécifique d’enquêtes mixtes déployé à Bogota entre 2016 et 2018 des données originales de réseaux égocentrés ont été collectées. Les analyses statistiques multidimensionnelles et économétriques ainsi que l’analyse des narrations quantifiées mettent en évidence que : (i.) la combinaison entre un réseau potentiel étendu et un réseau actif cohésif augmente le temps de recherche mais aussi la probabilité de trouver un emploi plus satisfaisant, (ii.) la force des liens apparaît contextualisée et est corrélée négativement avec le revenu et positivement avec l’évolution de ce dernier entre deux emplois, (iii.) au cours des trajectoires professionnelles des acteurs, les ressources nécessaires et les relations permettant d’y accéder se différencient nettement en fonction du type de changement d’emploi (incrémental ou radical). / In the Latin American context, shaped by rapid urbanization, high inequalities and the weakness of labor institutions, issues related to the structure of the labor market and the effect of relational intermediation on job performance appear fundamental. This thesis aims to describe the structure of employment and analyzes the effects of social networks on the quality of employment and the performance of workers in Bogota’s labor market (Colombia). This work adopts a multidisciplinary research approach based on a socioeconomic and institutionalist framework. In the first part, a theoretical and analytical reflection is conducted through the notion of quality of employment, to overcome the classical typologies commonly used in developing countries. From this perspective, quality of employment can be seen as a new performance indicator grasped through the prism of the labor market segmentation theory, making possible to consider the rationales and the differential effects produced by the use of social networks. Subsequently, based on quantitative data from the household survey (geih, 2013) supplemented by information collected through focus groups, the multidimensional, econometric and comprehensive exploratory analysis allows to empirically verify that : (i.) quality of employment reflects a strongly polarized structure of the labor market in Bogota, (ii.) the use of social networks is associated differently with the quality of employment of workers according to their segment ; opposing necessity networks (for the vulnerable segment) and opportunity networks (for the protected segment). Based on the theories of the embeddedness and the sociology of networks, the second part of this thesis proposes to explore the dimensions, configurations and mechanisms of different types of social networks to get a job. Using original data on egocentric networks collected from a specific mixed survey system deployed in Bogota between 2016 and 2018, the empirical results from multidimensional and econometric analyzes and, the application of quantified narratives method demonstrate that : (i.) the combination of an extended potential network and a cohesive active network increases the search time but also the probability of finding a satisfactory job, (ii.) the strength of ties appears contextualized and negatively correlated with income but positively with its evolution between the last and the current job, (iii.) during the actors’ labor market trajectories, the necessary resources for changing job and the relationships to access them are clearly differentiated by the type of evolution (incremental or radical).
69

Synthèse par « Click Chemistry » de matériaux hybrides et éudes de leurs assemblages supramoléculaires / Synthesis of hybrid materials via "click-chemistry" and studies of their supramolecular assemblies

Le ho, Khanh hy 15 November 2012 (has links)
L’approche « bottum-up » via l’auto-assemblage moléculaire est considéré comme une voie prometteuse pour contrôler la fabrication de nouveaux matériaux et leur intégration dans des dispositifs hybrides présentant de propriétés nouvelles. Dans ce travail, nous avons synthétisé plusieurs hybrides à base de molécules organiques (fullerène, porphyrines, phtalocyanine), d’oligonucléotides ou de nanotubes de carbone.Dans un premier temps, nous nous sommes intéressés à la synthèse d’une nouvelle famille de produits constituée d’une unité C60 lié à deux chromophores positionnés face à face et permettant la formation de complexes hôte-invités. Nous avons montré que ces composés s’assemblent pour donner des structures supramoléculaires en solution et sur surface. Les interactions électroniques et la compléxation entre le fullerène et les deux chromophores (porphyrines et phtalocyanines) ont été étudiées par spectroscopie optique et RMN ainsi que par voltammétrie cyclique.Parmi les outils de l’approche « bottom-up », l’ADN a montré son extraordinaire potentiel pour la fabrication d’assemblages bio-dirigés. En effet, la synthèse de matériaux hybrides à base d’ADN permet un contrôle précis (théoriquement à l’échelle d’une base, ~3,4Å) du positionnement des groupements fonctionnels dans un matériau. Dans le but de former des réseaux bi- et tridimensionnels à base d’ADN permettant le positionnement de nano-objets, nous avons synthétisé des hybrides à base d’oligonucléotides et de porphyrines (molécule 2D) ou d’adamantane (molécule 3D). Des édifices supramoléculaires simples ont été réalisés et le travail se poursuit en vue de la réalisation de réseaux fonctionnels.Enfin, dans une dernière partie, nous nous sommes intéressés à la fonctionnalisation des nanotubes de carbone monoparoi (SWNT) avec des chromophores de type porphyrines et phtalocyanines. Alors que les porphyrines présentent une absorption intense presque exclusivement dans le bleu, les phtalocyanines absorbent principalement dans le rouge. Combiner ces deux chromophores à la surface des nanotubes de carbone présente donc un intérêt particulier pour la collecte de lumière car les deux composés absorbent des régions complémentaires du spectre visible. Ce travail ouvre la voie vers l'étude des propriétés optoélectroniques des hybrides à base de nanotubes et en particulier leur utilisation pour la conversion d’énergie lumineuse en énergie électrique (application photovoltaïque). / An Approach "bottum-up" via molecular self-assembly is considered as a promising way to control the manufacture of new materials and their integration into hybrid devices with novel properties. In this work, we have synthesized several hybrids based on organic molecules (fullerene, porphyrin, phthalocyanine), oligonucleotides or carbon nanotubes.At first, we were interested in the synthesis of a new family of products consisting of a unit C60 linked to two chromophores positioned face to face and allowing the formation of host-guest complexes. We have shown that these compounds are combined to give supramolecular structures in solution and on the surface. Electronic interactions and complexation between fullerene and the two chromophores (porphyrins and phthalocyanines) were studied by NMR and optical spectroscopy as well as cyclic voltammetry.Among the tools of the "bottom-up", DNA showed its tremendous potential for the production of bio-directed assembly. Indeed, the synthesis of hybrid materials based DNA allows precise control (theoretically on the scale of a base, ~ 3.4 Å) of the positioning of the functional groups in a material. In order to form networks and bi-dimensional DNA-based for positioning nano-objects, we have synthesized hybrid oligonucleotide-based and porphyrin molecule (2D) or adamantane molecule (3D). Supramolecular structures have been made and this work is ongoing to achieve functional networks.Finally, in a last part, we are interested in the functionalization of single-walled carbon nanotubes (SWNTs) with chromophores like porphyrins and phthalocyanines. While porphyrins exhibit almost exclusively an intense absorption in the blue (around 420-440 nm), phtalocyanines absorb mainly in the red spectral region. Taken together these two chromophores have interesting light harvesting, photophysical and redox properties; the two components will participate independently to increase the overall absorption in the visible range of the solar spectrum. This work opens the route to study the optoelectronic properties of hybrid nanotube and in particular their use for the conversion of light energy into electrical energy (photovoltaic application).
70

Un robot curieux pour l’apprentissage actif par babillage d’objectifs : choisir de manière stratégique quoi, comment, quand et de qui apprendre / A Curious Robot Learner for Interactive Goal-Babbling : Strategically Choosing What, How, When and from Whom to Learn

Nguyen, Sao Mai 27 November 2013 (has links)
Les défis pour voir des robots opérant dans l’environnement de tous les jours des humains et sur unelongue durée soulignent l’importance de leur adaptation aux changements qui peuvent être imprévisiblesau moment de leur construction. Ils doivent être capable de savoir quelles parties échantillonner, et quelstypes de compétences il a intérêt à acquérir. Une manière de collecter des données est de décider par soi-même où explorer. Une autre manière est de se référer à un mentor. Nous appelons ces deux manièresde collecter des données des modes d’échantillonnage. Le premier mode d’échantillonnage correspondà des algorithmes développés dans la littérature pour automatiquement pousser l’agent vers des partiesintéressantes de l’environnement ou vers des types de compétences utiles. De tels algorithmes sont appelésdes algorithmes de curiosité artificielle ou motivation intrinsèque. Le deuxième mode correspond au guidagesocial ou l’imitation, où un partenaire humain indique où explorer et où ne pas explorer.Nous avons construit une architecture algorithmique intrinsèquement motivée pour apprendre commentproduire par ses actions des effets et conséquences variées. Il apprend de manière active et en ligne encollectant des données qu’il choisit en utilisant plusieurs modes d’échantillonnage. Au niveau du metaapprentissage, il apprend de manière active quelle stratégie d’échantillonnage est plus efficace pour améliorersa compétence et généraliser à partir de son expérience à un grand éventail d’effets. Par apprentissage parinteraction, il acquiert de multiples compétences de manière structurée, en découvrant par lui-même lesséquences développementale. / The challenges posed by robots operating in human environments on a daily basis and in the long-termpoint out the importance of adaptivity to changes which can be unforeseen at design time. The robot mustlearn continuously in an open-ended, non-stationary and high dimensional space. It must be able to knowwhich parts to sample and what kind of skills are interesting to learn. One way is to decide what to exploreby oneself. Another way is to refer to a mentor. We name these two ways of collecting data sampling modes.The first sampling mode correspond to algorithms developed in the literature in order to autonomously drivethe robot in interesting parts of the environment or useful kinds of skills. Such algorithms are called artificialcuriosity or intrinsic motivation algorithms. The second sampling mode correspond to social guidance orimitation where the teacher indicates where to explore as well as where not to explore. Starting fromthe study of the relationships between these two concurrent methods, we ended up building an algorithmicarchitecture with a hierarchical learning structure, called Socially Guided Intrinsic Motivation (SGIM).We have built an intrinsically motivated active learner which learns how its actions can produce variedconsequences or outcomes. It actively learns online by sampling data which it chooses by using severalsampling modes. On the meta-level, it actively learns which data collection strategy is most efficient forimproving its competence and generalising from its experience to a wide variety of outcomes. The interactivelearner thus learns multiple tasks in a structured manner, discovering by itself developmental sequences.

Page generated in 0.0584 seconds