• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 105
  • 37
  • 8
  • Tagged with
  • 154
  • 74
  • 36
  • 33
  • 26
  • 22
  • 20
  • 18
  • 18
  • 18
  • 16
  • 15
  • 13
  • 13
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Vers une philosophie du Web : le Web comme devenir-artefact de la philosophie (entre URIs, tags, ontologie (s) et ressources) / Towards a philosophy of the Web : the Web as philosophy becoming artefact (between URIs, tags, ontologies and resources)

Monnin, Alexandre 08 April 2013 (has links)
Cette thèse entend prendre acte de l'importance du Web d'un point de vue philosophique. Importance double : à la fois comme objet de recherche, qui, dans le sillage du Web Sémantique et de l'architecture du Web, à des titres divers, entre en résonance évidente avec les problématiques classiques de la métaphysique et de la philosophie du langage. Dans cette perspective, nous étudions quelques-uns de ses composants principaux (URI, ressources, tags, etc.). En parallèle, nous soulignons son importance au regard de la question du devenir de la philosophie elle-même. En effet, le travail entrepris ne s'est nullement contenté de projeter les concepts à priori d'une philosophia perennis. Il a consisté, au contraire, à interroger les architectes du Web eux-mêmes pour faire émerger leur métaphysique empirique, en observant les controverses qu'elle a suscitées. Prendre acte de la portée ontogonique d'une pratique telle que « l'ingénierie philosophique », selon l'expression de Tim Berners-Lee, pensée ici comme la production de nouvelles distinctions dans un monde en train de se faire, nous conduit à mener une réflexion plus vaste sur la nature de l'objectivation. Celle-ci rejoint en fin de compte des préoccupations politiques, dans la perspective de l'établissement d'un monde commun, auquel le Web participe activement. / The aim of this thesis is to account for the importance of the Web from a philosophical point of view. In a twofold fashion: as an object for research that, in the wake of the Semantic Web and Webarch, in different ways, is obviously consonant with many classical issues in metaphysics and the philosophy of language. From this perspective, we study some of its main building blocks (URI, resources, tags, etc.). Along with this aspect, we underline its importance as regards what's becoming of philosophy itself. This is all the more important since the task at hand demanded that we did not project philosophical categories a priori and lend ourselves to commit the "inscription error" acutely described by Brian Cantwell Smith, by resorting to a form of philosophia perennis. Conversely, we tried to focus our attention on Web architects themselves in order to bring their empirical metaphysics to the forefront, observing the controversies to which it lent itself. By acknowledging the « ontogonic » scope of such a practice as « philosophical engineering », an expression coined by no other than Tim Berners-Lee himself, understood as the production of new distinctions and entities like resources in a world that unfolds, we were made to ponder broader topics like the nature of objectivation. In the end, this gave rise to politic al concerns in line with the establishment of a shared world, in which the Web is heavily involved.
32

Sémantique du discours scientifique de Pierre Bourdieu Kabylie, Algérie, Béarn, France / The semantics of Pierre Bourdieu's scientific discourse Kabylia, Algeria, Bearan, France

Belghanem, Ali 15 November 2013 (has links)
Ce travail propose une lecture sémantique du discours scientifique de Pierre Bourdieu. En empruntant à la sémantique interprétative son modèle théorique, il propose une série d'investigations dans un corpus classé suivant les terrains empiriques étudiés par le sociologue. Ce classement permet d'obtenir quatre sous-corpus qui correspondent respectivement à la Kabylie, l'Algérie en période coloniale, le Béarn paysan et la France contemporaine. En partant de l'hypothèse de la transformation sociale, la description sémantique montre que le corpus global peut se lire comme une séquence dialectique articulant trois moments, le monde avant la transformation (Kabylie), le monde pendant la transformation (Algérie, Béarn) et le monde après la transformation (France). Chemin faisant, cette recherche met en lumière, au sein et entre les différentes parties du corpus, une diversité de parcours interprétatifs et intertextuels / This work proposes a semantic reading of Pierre Bourdieu's scientific discourse. Drawing on interpretative semantics as a theoretical model, this research uses a series of investigations of a corpus classified according to the sociologist's empirical fields. This classification allows having four sub-corpus which correspond to the Kabylia, colonial Algeria, the peasant Bearn and contemporary France. Relying on the hypothesis of the social transformation, the semantic description shows that the global corpus can be read as a dialectical sequence articulating three periods: the world before the transformation (Kabylia), the world during transformation (Algeria, Béarn) and the world after transformation (France). All along the research, a variety of interpretive and inter-textual processes are highlighted within and among the different parts of the corpus
33

Quelques contributions vers la simulation parallèle de la cinétique neutronique et la prise en compte de données observées en temps réel / Some contributions towards the parallel simulation of time dependent neutron transport and the integration of observed data in real time

Mula Hernandez, Olga 24 September 2014 (has links)
Dans cette thèse nous avons tout d'abord développé un solveur neutronique de cinétique transport 3D en géométrie déstructurée avec une discrétisation spatiale par éléments finis discontinus (solveur MINARET). L'écriture d'un tel code représente en soi une contribution importante dans la physique des réacteurs car il permettra de connaître de façon très précise l'état du c¿ur au cours d'accidents graves. Il jouera aussi un rôle important pour des études de fluence de la cuve des réacteurs. D'un point de vue mathématique, l'apport le plus important a consisté en l'implémentation d'algorithmes adaptés aux architectures de calcul parallèle, permettant de réduire de façon significative les temps de calcul. Un effort particulier a été mené pour paralléliser de façon efficace la variable temporelle par l'algorithme pararéel en temps. Nous avons ensuite cherché à développer une méthode qui permettrait d'utiliser MINARET comme outil de surveillance pendant l'opération d'un réacteur nucléaire. Une des difficultés majeures de ce problème réside dans le besoin de fournir les simulations en temps réel. La question a été abordée en développant tout d'abord une généralisation de la méthode Empirical Interpolation (EIM) grâce à laquelle on a pu définir un processus d'interpolation bien posé pour des fonctions appartenant à des espaces de Banach. Ceci est rendu possible par l'utilisation de formes linéaires d'interpolation au lieu des traditionnels points d'interpolation et une partie de cette thèse a été consacrée à la compréhension des propriétés théoriques de cette méthode (analyse de convergence sous hypothèse d'ensemble de petite dimension de Kolmogorov et étude de sa stabilité). / In this thesis, we have first developed a time dependent 3D neutron transport solver on unstructured meshes with discontinuous Galerkin finite elements spatial discretization. The solver (called MINARET) represents in itself an important contribution in reactor physics thanks to the accuracy that it can provide in the knowledge of the state of the core during severe accidents. It will also play an important role on vessel fluence calculations. From a mathematical point of view, the most important contribution has consisted in the implementation of algorithms that are well adapted for modern parallel architectures and that significantly decrease the computing times. A special effort has been done in order to efficiently parallelize the time variable by the use of the parareal in time algorithm. On a second stage, we have developed the foundations of a method with which we could use MINARET to monitor in real time the population of neutrons during the operation of the reactor. One of the major difficulties relies in the necessity of providing computations in real time. This question has been addressed by proposing an extension of the Empirical Interpolation Method (EIM) thanks to which a well-posed interpolation procedure has been defined for functions belonging to Banach spaces. This is possible thanks to the use of interpolating linear forms instead of the traditional interpolation points and a part of this thesis has been devoted to the understanding of the theoretical properties of this method (convergence analysis under the hypothesis of small Kolmogorov n-width and stability of the procedure).
34

Processus empiriques pour l'inférence dans le modèle de survie à risques non proportionnels / Empirical processes for inference in the non-proportional hazards model

Chauvel, Cecile 01 December 2014 (has links)
Nous nous intéressons à des processus empiriques particuliers pour l'inférence dans le modèle à risques non proportionnels. Ce modèle permet au coefficient de régression de varier avec le temps et généralise le modèle à risques proportionnels très utilisé pour modéliser des données de survie. Le processus du score standardisé que nous étudions est une somme séquentielle des résidus standardisés du modèle. Le processus est considéré en présence d'une covariable dans le modèle, avant d'être étendu au cas de multiples covariables pouvant être corrélées. Le plan du manuscrit se décompose en trois parties. Dans un premier temps, nous établissons les propriétés limites du processus sous le modèle et sous un modèle mal spécifié. Dans une deuxième partie, nous utilisons les résultats de convergence du processus pour dériver des tests de la valeur du paramètre du modèle. Nous montrons qu'un des tests proposés est asymptotiquement équivalent au test de référence du log-rank pour comparer les fonctions de survie de plusieurs groupes de patients. Nous construisons des tests plus puissants que le test du log-rank sous certaines alternatives. Enfin, dans la dernière partie, nous étudions comment lier prédiction et adéquation dans le modèle à risques non proportionnels. Nous proposons une méthode de construction d'un modèle bien ajusté en maximisant sa capacité prédictive. Aussi, nous introduisons un test d'adéquation du modèle à risques proportionnels. Les performances des méthodes proposées, qu'il s'agisse des tests sur le paramètre ou de l'adéquation du modèle, sont comparées à des méthodes de référence par des simulations. Les méthodes sont illustrées sur des données réelles. / In this thesis, we focus on particular empirical processes on which we can base inference in the non-proportional hazards model. This time-varying coefficient model generalizes the widely used proportional hazards model in the field of survival analysis. Our focus is on the standardized score process that is a sequential sum of standardized model-based residuals. We consider first the process with one covariate in the model, before looking at its extension for multiple and possibly correlated covariates. The outline of the manuscript is composed of three parts. In the first part, we establish the limit properties of the process under the model as well as under a misspecified model. In the second part, we use these convergence results to derive tests for the value of the model parameter. We show that one proposed test is asymptotically equivalent to the log-rank test, which is a benchmark for comparing survival experience of two or more groups. We construct more powerful tests under some alternatives. Finally, in the last part, we propose a methodology linking prediction and goodness of fit in order to construct models. The resulting models will have a good fit and will optimize predictive ability. We also introduce a goodness-of-fit test of the proportional hazards model. The performances of our methods, either tests for the parameter value or goodness-of-fit tests, are compared to standard methods via simulations. The methods are illustrated on real life datasets.
35

Essais sur l'estimation structurelle de la demande / Essays in Structural Demand Estimation

Monardo, Julien 18 October 2019 (has links)
L’estimation structurelle des modèles de demande sur des marchés de produits différenciés joue un rôle important en économie. Elle permet de mieux comprendre les choix des consommateurs et, entre autres, de mesurer les effets d’une fusion d’entreprise, de l’introduction d’un nouveau produit sur le marché ou d’une nouvelle régulation. L’approche traditionnelle consiste à spécifier un modèle d’utilité, typiquement un modèle d’utilité aléatoire additif, à en calculer ses demandes et à inverser ces dernières pour obtenir des équations de demande inverse qui serviront de base pour l’estimation. Toutefois, en général, ces demandes inverses n’ont pas de forme analytique. L'estimation exige donc une inversion numérique et l’emploi de procédures d’estimation non-linéaire, qui peuvent être difficiles à mettre en oeuvre et chronophages.Cette thèse adopte une approche différente, en développant de nouveaux modèles de demande inverse qui sont cohérents avec un modèle d’utilité de consommateurs hétérogènes. Cette approche permet de capter de façon plus flexible les substitutions entre les produits, grâce à de simples régressions linéaires basées sur des données incluant les parts de marché, les prix et les caractéristiques des produits. Le premier chapitre de cette thèse développe le modèle inverse product differentiation logit (IPDL), qui généralise les modèles logit emboîtés, permettant ainsi de capter de façon flexible les substitutions entre les produits, y compris de la complémentarité. Il montre que le modèle IPDL appartient à une classe de modèles de demande inverse, nommée generalized inverse logit (GIL), laquelle inclut une grande majorité de modèles d’utilité aléatoire additifs qui ont été utilisés à des fins d'estimation de la demande. Le second chapitre développe le modèle flexible inverse logit (FIL), un modèle GIL qui utilise une structure de nids flexible avec un nid pour chaque pair de produits. Il montre que le modèle FIL, projeté dans l’espace des caractéristiques des produits, permet d’obtenir des élasticités-prix qui dépendent directement des caractéristiques des produits et, en utilisant des simulations de Monte-Carlo, qu’il est capable de reproduire celles du "flexible" modèle logit à coefficients aléatoires. Le troisième chapitre étudie la micro-fondation du modèle GIL. Il montre que les restrictions que le modèle GIL impose sur la fonction de demande inverse sont des conditions nécessaires et suffisantes de cohérence avec un modèle de consommateurs hétérogènes maximisant leur fonction d’utilité, connu sous le nom de perturbed utility model (PUM). Il montre également que tout modèle GIL génère une fonction de demande qui satisfait une légère variante des conditions de Daly-Zachary, laquelle permet de combiner substituabilité et complémentarité en demande. / Estimation of structural demand models in differentiated product markets plays an important role in economics. It allows to better understand consumers’ choices and, amongst other, to assess the effects of mergers, new products, and changes in regulation. The standard approach consists in specifying a utility model, typically an additive random utility model, computing its demands, and inverting them to obtain inverse demand equations, which will serve as a basis for estimation. However, since these inverse demands have generally no closed form, estimation requires numerical inversion and non-linear optimization, which can be painful and time-consuming. This dissertation adopts a different approach, developing novel inverse demand models, which are consistent with a utility model of heterogeneous consumers. This approach allows to accommodate rich substitution patterns thanks to simple linear regressions with data on market shares, prices and product characteristics. The first chapter of this dissertation develops the inverse product differentiation logit (IPDL) model, which generalizes the nested logit models to allow for richer substitution patterns, including complementarity. It also shows that the IPDL model belongs to the class of generalized inverse logit (GIL) models, which includes a vast majority of additive random utility models that have been used for demand estimation purposes. The second chapter develops the flexible inverse logit (FIL) model, a GIL model that uses a flexible nesting structure with a nest for each pair of products. It shows that the FIL model, projected into product characteristics space, makes the price elasticities depending on product characteristics directly and, using Monte Carlo simulations, that it is able to mimic those from the "flexible" random coefficient logit model. The third chapter studies the micro-foundation of the GIL model. It shows that the restrictions that the GIL model imposes on the inverse demand function are necessary and sufficient for consistency with a model of heterogeneous and utility-maximizing consumers, called perturbed utility model. It also shows that any GIL model yields a demand function that satisfies a slight variant of the Daly-Zachary conditions, which allows to combine substitutability and complementarity in demand.
36

Contributions empiriques sur l’offre et la demande de téléphonie mobile / Empirical contributions to the offer & demand on mobile communications market.

Cadet, Thomas 17 December 2013 (has links)
L’objectif de cette thèse empirique est de contribuer à une meilleure compréhension du marché de la téléphonie mobile en étudiant les stratégies d’offres (et notamment la tarification) des opérateurs, ainsi que les comportements des consommateurs en termes d’usages et de recommandation. / We wish to contribute to the understanding of the mobile market by studying the pricing strategies of the operators, but also by studying the consumers behavior in terms of uses and recommendation.
37

Méthodes de sondage pour les données massives / Sampling methods for big data

Rebecq, Antoine 15 February 2019 (has links)
Cette thèse présente trois parties liées à la théorie des sondages. La première partie présente deux résultats originaux de sondages qui ont eu des applications pratiques dans des enquêtes par sondage de l'Insee. Le premier article présente un théorème autorisant un plan de sondage stratifié constituant un compromis entre la dispersion des poids et l'allocation de précision optimale pour une variable d'intérêt spécifique. Les données d’enquête sont souvent utilisées pour estimer nombre de totaux ou modèles issus de variables exclues du design. La précision attendue pour ces variables est donc faible, mais une faible dispersion des poids permet de limiter les risques qu'une estimation dépendant d'une de ces variables ait une très mauvaise précision. Le second article concerne le facteur de repondération dans les estimateurs par calage. On propose un algorithme efficace capable de calculer les facteurs de poids les plus rapprochés autour de 1 tels qu'une solution au problème de calage existe. Cela permet de limiter les risques d'apparition d'unités influentes, particulièrement pour l'estimation sur des domaines. On étudie par simulations sur données réelles les propriétés statistiques des estimateurs obtenus. La seconde partie concerne l'étude des propriétés asymptotique des estimateurs sur données issues de sondage. Celles-ci sont difficiles à étudier en général. On présente une méthode originale qui établit la convergence faible vers un processus gaussien pour le processus empirique d'Horvitz-Thompson indexé par des classes de fonction, pour de nombreux algorithmes de sondage différents utilisés en pratique. Dans la dernière partie, on s'intéresse à des méthodes de sondage pour des données issues de graphes, qui ont des applications pratiques lorsque les graphes sont de taille telles que leur exploitation informatique est coûteuse. On détaille des algorithmes de sondage permettant d'estimer des statistiques d'intérêt pour le réseaux. Deux applications, à des données de Twitter puis à des données simulées, concluent cette partie. / This thesis presents three different parts with ties to survey sampling theory. In the first part, we present two original results that led to practical applications in surveys conducted at Insee (French official statistics Institute). The first chapter deals with allocations in stratified sampling. We present a theorem that proves the existence of an optimal compromise between the dispersion of the sampling weights and the allocation yielding optimal precision for a specific variable of interest. Survey data are commonly used to compute estimates for variables that were not included in the survey design. Expected precision is poor, but a low dispersion of the weights limits risks of very high variance for one or several estimates. The second chapter deals with reweighting factors in calibration estimates. We study an algorithm that computes the minimal bounds so that the calibration estimators exist, and propose an efficient way of resolution. We also study the statistical properties of estimates using these minimal bounds. The second part studies asymptotic properties of sampling estimates. Obtaining asymptotic guarantees is often hard in practice. We present an original method that establishes weak convergence for the Horvitz-Thompson empirical process indexed by a class of functions for a lot of sampling algorithms used in practice. In the third and last part, we focus on sampling methods for populations that can be described as networks. They have many applications when the graphs are so big that storing and computing algorithms on them are very costly. Two applications are presented, one using Twitter data, and the other using simulated data to establish guidelines to design efficient sampling designs for graphs.
38

PERFORMANCES STATISTIQUES D'ALGORITHMES D'APPRENTISSAGE : ``KERNEL PROJECTION<br /> MACHINE'' ET ANALYSE EN COMPOSANTES PRINCIPALES A NOYAU.

Zwald, Laurent 23 November 2005 (has links) (PDF)
La thèse se place dans le cadre de l'apprentissage statistique. Elle apporte<br />des contributions à la communauté du machine learning en utilisant des<br />techniques de statistiques modernes basées sur des avancées dans l'étude<br />des processus empiriques. Dans une première partie, les propriétés statistiques de<br />l'analyse en composantes principales à noyau (KPCA) sont explorées. Le<br />comportement de l'erreur de reconstruction est étudié avec un point de vue<br />non-asymptotique et des inégalités de concentration des valeurs propres de la matrice de<br />Gram sont données. Tous ces résultats impliquent des vitesses de<br />convergence rapides. Des propriétés <br />non-asymptotiques concernant les espaces propres de la KPCA eux-mêmes sont également<br />proposées. Dans une deuxième partie, un nouvel <br />algorithme de classification a été<br />conçu : la Kernel Projection Machine (KPM). <br />Tout en s'inspirant des Support Vector Machines (SVM), il met en lumière que la sélection d'un espace vectoriel par une méthode de<br />réduction de la dimension telle que la KPCA régularise <br />convenablement. Le choix de l'espace vectoriel utilisé par la KPM est guidé par des études statistiques de sélection de modéle par minimisation pénalisée de la perte empirique. Ce<br />principe de régularisation est étroitement relié à la projection fini-dimensionnelle étudiée dans les travaux statistiques de <br />Birgé et Massart. Les performances de la KPM et de la SVM sont ensuite comparées sur différents jeux de données. Chaque thème abordé dans cette thèse soulève de nouvelles questions d'ordre théorique et pratique.
39

Utilisation des Divergences entre Mesures en Statistique Inférentielle

Keziou, Amor 17 November 2003 (has links) (PDF)
Dans cette thèse, nous proposons de nouvelles méthodes d'estimation et de test par optimisation des Divergences entre mesures pour des modèles paramétriques discrets ou continus, pour des modèles à rapport de densités semi-paramétriques et pour des modèles non paramétriques restreints par des contraintes linéaires. Les méthodes proposées sont basées sur une nouvelle représentation des Divergences entre mesures. Nous montrons que les méthodes du maximum de vraisemblance paramétrique et du maximum de vraisemblance empirique sont des cas particuliers correspondant au choix de la Divergence de Kullback-Leibler modifiée, et que le choix d'autres types de Divergences mène à des estimateurs ayant des propriétés similaires voire meilleurs dans certains cas. De nombreuses perspectives concernant le problème du choix de la Divergence sont notées.
40

Utilisation combinée des méthodes basées sur le bruit de fond dans le cadre du microzonage sismique

Cadet, Héloïse 31 October 2007 (has links) (PDF)
Le constat récurrent de dégâts sismiques fortement influencés par les effets de site attire l'attention sur la nécessité d'améliorer les outils permettant leur estimation a priori. Les contraintes budgétaires font cependant du développement de méthodes peu onéreuses un objectif crucial. Les mesures de bruit de fond, méthode géophysique utilisant les vibrations ambiantes, correspondent à ce type de besoin.<br />Le but de cette thèse est de développer et de valider des méthodologies opérationnelles utilisant le bruit de fond pour une prise en compte robuste et satisfaisante des effets de site dans un contexte réglementaire.<br />Cette thèse comprend deux volets principaux :<br />- Tout d'abord le développement d'un protocole sur les méthodes utilisant le bruit de fond, dans le but de qualifier la détermination sur un site de la fréquence fondamentale f0 (mesures "H/V") et de la vitesse moyenne des ondes de cisaillement sur les z 1ers mètres Vsz (mesures en réseau) ;<br />- Puis l'établissement d'une fonction empirique décrivant l'amplification d'un site en fonction des deux seuls paramètres f0 et Vsz. Cette étude est effectuée à partir des données japonaises Kik-net: les paramètres f0 et Vsz ont pu être estimés de façon fiables pour près de 500 sites, de même que leur fonction d'amplification entre les enregistrements en surface et en profondeur. Après correction de l'effet de profondeur et normalisation pour se ramener à une fonction d'amplification par rapport à un rocher affleurant "standard", une analyse statistique permet alors de définir la fonction cherchée, qui s'avère sensiblement meilleure que les coefficients de site proposés dans les règlementations actuelles type EC8.

Page generated in 0.0498 seconds