• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 155
  • 72
  • 14
  • 9
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 257
  • 78
  • 67
  • 49
  • 46
  • 37
  • 30
  • 29
  • 25
  • 25
  • 22
  • 21
  • 21
  • 20
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Etude de dispersions de nanotubes de carbone par des polymères pour l’élaboration de composites conducteurs et structurés

Saint-Aubin, Karell 04 May 2010 (has links)
Cette thèse rapporte l’étude de dispersions de nanotubes de carbone par des polymères, la mise en forme de films composites et l’étude de leurs propriétés mécaniques ou de conduction électrique. La première partie est centrée autour de l’utilisation de l’acide poly-acrylique (PAA), qui se révèle un excellent agent dispersant des nanotubes dans l’eau. Une étude des interactions entre le polyélectrolyte et les nanotubes en fonction du pH est réalisée afin d’identifier les conditions de dispersion optimales. La réalisation de composites pour de potentielles applications dans les encres et peintures conductrices révèle qu’un contrôle suffisamment fin de l’adsorption du PAA et de la stabilité de la dispersion permet l’obtention de films à la fois homogènes et conducteurs électriques. La seconde partie de ce travail concerne l’utilisation d’un copolymère à blocs, le SBM, possédant des propriétés remarquables d’auto-organisation pour la réalisation de composites par voie solvant à base de nanotubes. L’originalité du système réside dans le fait que le SBM est à la fois agent dispersant des nanotubes mais également matrice structurante. Ce travail montre que la structure adoptée par le copolymère, qui dépend beaucoup du solvant employé, influence directement les propriétés mécaniques du matériau. De plus, l’addition de nanotubes améliore sensiblement les performances du composite. / This thesis deals with the study of carbon nanotube dispersions by polymers, the processing of composite films and the study of their mechanical and electrical properties. The first part of the work focuses on the use of poly(acrylic) acid (PAA), which proves to be an excellent dispersing agent in water. A study of the interactions between the PAA and the nanotubes is realised, tuned by the pH conditions. The fabrication of composite films, for future applications in the field of conductive inks and paints, shows that a fine control of the PAA adsorption and the dispersion stability allows the formation of homogeneous and conductive composites. In a second part, nanotube composites are elaborated from a block copolymer, the SBM, well-known for its remarkable self organization properties. Interestingly, the copolymer is at the same time the nanotube dispersing agent in the solvent and the structuring matrix of the final composite. This thesis shows that the copolymer structure, which strongly depends on the solvent used, influences the mechanical properties of composite films, and that the addition of nanotubes noticeably improves the performances.
182

Synthèse, auto-assemblage et libération contrôlée de principes actifs des nouveaux copolymères à blocs thermo-sensibles et amphiphiles à base de polylactide, de polyacrylamide et de poly(oligo(éthylène glycol) méthacrylate) / Synthesis, self-assembly and controlled drug delivery of novel thermo-responsive and amphiphilic block copolymers based on polylactide, polyacrylamide and poly(oligo(ethylene glycol) methacrylate)

Hu, Yanfei 08 April 2015 (has links)
Deux séries de copolymères tribloc thermo-sensibles et amphiphiles, à savoir poly(L-lactide)/poly(N-isopropylacrylamide-co-N,N-diméthylacrylamide) et poly(L-lactide)/poly(2-(2-méthoxyéthoxy) éthyl méthacrylate-co-oligo(éthylène glycol) méthacrylate) ont été synthétisées par polymérisation radicalaire par transfert d'atomes en utilisant le Br-PLLA-Br comme macroamorceur dans des conditions douces. Les copolymères obtenus présentent une structure de chaînes bien définie avec une dispersité étroite, et sont capable de s'auto-assembler dans un milieu aqueux pour donner des micelles sphériques de taille en dessous de 100 nm et de faible concentration micellaire critique (<0.016 mg mL-1). La température critique inférieure de solution peut être ajustée avec précision en faisant varier le rapport NIPAAm/DMAAm ou MEO2MA/OEGMA. Un principe actif hydrophobe, curcumine, a été choisi comme modèle pour déterminer les propriétés de libération des micelles à différentes températures. Une libération thermo-sensible de curcumine a été observée, indiquant que ces copolymères sont prometteurs pour la libération ciblée de principes actifs anti-tumoraux. / Two series of thermo-responsive and amphiphilic triblock copolymers, i.e. poly(L-lactide)/poly(N-isopropylacrylamide-co-N,N-dimethylacrylamide) and poly(L-lactide)/poly(2-(2-methoxyethoxy) ethyl methacrylate-co-oligo(ethylene glycol) methacrylate) were synthesized by atom transfer radical polymerization using Br-PLLA-Br as macroinitiator under mild conditions. The obtained copolymers present well defined chain structures with narrow dispersity, and are able to self-assemble in aqueous medium yielding spherical micelles with size below 100 nm and low critical micellization concentration (<0.016 mg mL-1). The lower critical solution temperature is precisely adjusted by changing the NIPAAm/DMAAm or MEO2MA/OEGMA ratio. A hydrophobic drug, curcumin, is taken as a model to evaluate the drug release properties of micelles at different temperatures. Thermo-responsive drug release behavior is observed, indicating that these copolymers are promising candidate for targeted delivery of anticancer drugs.
183

The Dynamics of Firm and Industry Growth : The Swedish Computing and Communications Industry

Johansson, Dan January 2001 (has links)
The growth of the Swedish Computing and Communicationsindustry is studied in this thesis. Growth is seen as a dynamicprocess moved by the entry, expansion, contraction and exit offirms. The analysis is founded on the theory of the ExperimentallyOrganised Economy, which views the economy as an experimentalprocess. The entire thesis is organised around the problem ofresource allocation and the issue of growth through theintroduction of new combinations into the economic system,using the terminology of Schumpeter (1911). Competence blocsdetermine the efficiency of the economic process, i.e., theextent to which it leads to sustained economic growth ratherthan stagnation. Change is a fundamental feature of theeconomic process, firms have to be flexible to survive and theeconomic system must promote flexibility to grow. Many trials,or experiments, are required to discover and select "winning"firms and technologies. Hence, the turnover (i.e., entry andexit) of firms is supposed to have positive effects on growth.Theory, furthermore, predicts that new and small firms are moreentrepreneurial and innovative and that they, therefore, willgrow faster than old and large firms. The empirical results show that firm growth decreases withfirm age, decreases with firm size, increases with firmindependence, decreases with government ownership and thatindustry growth increases with firm turnover. Moreover, thesmallest firms have been the major job contributors during the1993-1998 period investigated empirically. It is also shownthat employment growth is facilitated by a sustained high entryof firms. Lastly, many policies, several of which were introduced inthe late 1960s and early 1970s, have selectively supportedlarge firms in mature industries. Hence, they have exercised arelatively negative influence on exactly the types of firmsthat have been shown to contribute to growth. These policieshave also made the Swedish economy less flexible. It is arguedthat this partly explains the slow economic growth in Swedencompared to other OECD countries since the 1970s. Aninteresting question is where Sweden would have been today witha different policy orientation. Keywords:The Experimentally Organised Economy;Competence Blocs; Industrial dynamics; Industrialtransformation; Firm age, Small-firm growth; Turnover of firms;Computing and Communications industry; IT industry;Institutions.
184

Développement d'un nouveau procédé de chemo-épitaxie pour l'alignement des copolymères à blocs / New chemoepitaxy process development for block copolymer alignement

Paquet, Anne 06 June 2019 (has links)
Afin de répondre aux demandes constantes de l’industrie micro-électronique pour la réduction des tailles des dispositifs électroniques, de nouvelles techniques de lithographie sont mises au point. Une de ces techniques est l’auto-assemblage dirigé des copolymères à blocs (DSA). Cette technique consiste à utiliser la capacité des copolymères à blocs à s’auto-assembler en nanodomaines (cylindres ou lamelles) pour former des motifs de type contact ou ligne / espace. En l’absence de motifs directionnels, les copolymères à blocs ne possèdent pas d’ordre à longue distance, nécessaire pour toute application type CMOS. Ainsi, deux approches différentes de DSA sont utilisées: la grapho-épitaxie, qui génère une orientation par guidage physique, et la chemo-épitaxie, qui génère une orientation par affinité chimique. Cette dernière permet plus de flexibilité lors de la conception des masques de lithographie puisque les zones actives sont définies à postériori par l’approche « cut last », et est de fait la plus recherchée aujourd’hui pour aligner les copolymères à blocs. Toutefois, les procédés de chemo-épitaxie actuels ont montré leurs limitations pour l’utilisation de copolymères à blocs de haute résolution dit high , dont la période est inférieure à 20 nm, due aux limitations des outils de lithographie conventionnelle utilisés en production.Dans cette thèse, un nouveau procédé de chemo-épitaxie, nommé ACE (Arkema-CEA) spécialement conçu pour l’intégration de copolymères à blocs high  est présenté. Dans ce procédé, les guides de chemo-épitaxie sont formés en combinant la lithographie standard et le procédé de lithographie par espaceur. Une sous-couche neutre, permettant l’orientation perpendiculaire du copolymère à blocs, est dans un premier temps déposée entre les espaceurs. Après le retrait des espaceurs, une étape de greffage sélectif a lieu pour obtenir un guide affine. Dans le procédé ACE, la taille finale du guide n’est plus directement définie par lithographie mais elle est plutôt déterminée par la taille de l’espaceur, obtenue en contrôlant l’épaisseur de dépôt. Cette technique permet de s’affranchir des contraintes de la lithographie au niveau des hautes résolutions.Afin de démontrer la faisabilité du procédé ACE, la thèse est divisée en deux axes de recherches. Le premier axe consiste à valider les points critiques du procédé, à savoir le greffage sélectif du guide directionnel entre les motifs formés par la sous-couche neutre et le retrait des espaceurs. Une étude approfondie sur les différentes sous-couches polymères disponibles et les effets des procédés sur celles-ci est réalisée. Le second axe s’intéresse à l’alignement du copolymère à blocs par le procédé ACE. Des fenêtres de procédé permettant d’étudier la stabilité et la reproductibilité du procédé sont obtenues en mesurant la défectivité du copolymère à blocs en fonction de la commensurabilité des motifs de lithographie. L’influence des différents paramètres (conditions de recuit et d’épaisseur du copolymère à blocs, hauteur et CD des espaceurs, …) est étudiée afin d’optimiser le procédé mis en place.Au vu des essais réalisés, le procédé mis en place est un procédé hybride chemo-grapho-épitaxie : la combinaison des guides physiques et chimiques permet l’alignement à longue distance des copolymères à blocs. L’absence de topographie ou la modification de l’affinité chimique du guide entraine une absence ou une modification de l’alignement des blocs. L’optimisation des paramètres permet l’alignement des copolymères à blocs sur de longues distances (plusieurs dizaines de micromètres carré), qui pourront permettre la définition de zone active par l’approche « cut last ». / In order to offer a solution to constant micro-electronics fab requirements in terms of lithography resolution, new lithography approaches are under study. One of this technic consist of using Block Copolymer capabilities to self-assembled in micro-structures, forming patterns structures like contact (cylinders) and line / space (lamellae). In the absence of any constraint, block copolymer do not own a long range order, useful for any CMOS-type application. Thereby two technics are used to obtain a block alignment: the grapho-epitaxy which align the block copolymer thanks to a physical guide, and the chemo-epitaxy, which align block copolymer thanks to a chemical affinity. Chemo-epitaxy, contrary to graph-epitaxy, offers space saving by aligning the blocs all over the studied field. Today, it is the most used technic. However, the current lithography requirements lead to the integration of high  block copolymers whose period are below 20 nm. With this dimension, the current chemo-epitaxy processes are not adapted anymore, due to the resolution limit of the standard lithography tools defining the guides.This thesis aims to introduce a new chemo-epitaxy process flow, called Process ACE,by using LETI 300mm process capability and Arkema’s block copolymer advanced materials. In this new process, chemo-epitaxy guides are formed by combining standard lithography and established spacer patterning process. Spacer patterning technique is an option which, thanks to its aggressive dimensions, allows the integration of high  block copolymers. A neutral underlayer, allowing perpendicular bloc copolymer orientation is located between the spacers. After the spacer removal, a selective grafting takes place to obtain an affine guide for one of the block. The final guide size corresponds to the one of the spacer earlier processed.In order to validate the process feasibility the thesis is divided in two parts. The first part investigates the critical process steps, that is to say the affinity guide selective grafting between the patterns form by the neutral underlayer and the spacers removal, by means of an in-depth polymer underlayer study and the process effects on these one’s. The second part focuses on block copolymer alignment with process ACE. Process windows validating the process stability and reproducibility are obtained by measuring block copolymer defectivity as a function of the lithography patterns commensurability. The different parameters effect (block copolymer baking, spacer height and width) is studied in order to optimise the process set up.On the basis of the testis undertaken, the process set up is a hybrid chemo-grapho-epitaxy process. It allows block copolymer long range order thanks to physical and chemical guides involved at the underlayer – block copolymer interface all by allowing a full space occupation of the available space.
185

Le terme pardon : emplois et signification / The term pardon : uses and meaning

Metzger, Xavier 28 November 2018 (has links)
Ce travail doctoral a pour objectif d’analyser la signification du terme pardon dans tous ses emplois en langue française contemporaine. Le cadre théorique de la sémantique argumentative et de la TBS nous a permis de schématiser et de comprendre non seulement les différences de signification dans les emplois du nom commun mais également de discerner le mode d’action de la locution dans toutes ses fonctions argumentatives.Après avoir mis de côté ce qui appartient à la construction encyclopédique de la notion du pardon, à savoir le caractère d’un acte souverain, l’analyse argumentative a permis de décrire toute la richesse de la signification du terme en tant qu’état, processus et achèvement, ainsi que son caractère fondamental de promesse. Elle nous a également amené à dissocier d’un côté l’acte d’excuse performatif dans les échanges réparateurs et, de l’autre, des fonctions argumentatives variées dans les emplois conversationnels et de politesse.Notre démarche a permis d’enrichir les apports du dictionnaire et de l’approche lexicologique. A l’issue de l’analyse d’une centaine d’exemples, nous avons pu rapprocher le terme pardon de celui de paix. / This doctoral work aims to analyze the meaning of the term forgiveness in all its uses in contemporary French.The theoretical framework of the argumentative semantics and the TBS allowed us to schematize and understand not only the differences of meaning in the uses of the common noun but also to discern the mode of action of the phrase in all its argumentative functions.After setting aside what belongs to the encyclopedic construction of the notion of forgiveness, namely the character of a sovereign act, the argumentative analysis has allowed to describe all the richness of the meaning of the term as a state, a process and a completion, as well as its fundamental promise. It has also led us to dissociate on the one hand the performative excuse act in repairs and, on the other hand, various argumentative functions in conversational and politeness jobs.Our approach has enriched the contributions of the dictionary and the lexicological approach. At the end of the analysis of a hundred examples, we were able to bring the term forgiveness closer to that of peace.
186

Applications d'un alphabet structural pour l'analyse, la prédiction et la reconnaissance des repliements des protéines / Applications of a structural alphabet for protein structure analysis, prediction and fold recognition

Mahajan, Swapnil 29 October 2013 (has links)
Les blocs protéiques (BP) constituent un alphabet structural qui permettent une bonne approximation du squelette carbonnée des protéines et la compression de l'information 3D en 1D. Leur utilisation a permis d'appréhender sous un nouvel angle la structure des protéines. Cette thèse explore de nouvelles applications des BP pour l'analyse des structures des protéines, leur prédiction et la reconnaissance de leurs repliements. Dans un premier temps, nous utilisons les BP pour une caractérisation fine des régions variables dans les alignements structuraux de protéines homologues. Ces régions peuvent néanmoins présenter des similarités importantes en terme de conformation. Leur caractérisation a permis de les distinguer des régions dont les conformations sont différentes. Nous montrons aussi que les variations intrinsèques de certaines régions comme les boucles au sein d’une protéine ne sont pas corrélées aux différences de conformation observées dans les régions équivalentes entre protéines homologues. Dans une deuxième partie, nous analysons la relation séquence-structure à l'aide de BP par le biais d'une base de données de pentapeptides issus des structures des protéines. Celle-ci a servi de base pour la mise en place d'outils pour la prédiction du squelette carbonnée des protéines (PB-kPRED) et de sa plasticité (PB-SVindex). Nous exposons comment ces prédictions permettent la reconnaissance du repliement des protéines avec un certain succès et l'identification de probables points chauds structuraux et fonctionnels. En dernière partie, nous présentons un nouvel algorithme (FoRSA) pour la reconnaissance du repliement des protéines à l'aide des BP. Cet algorithme s'appuie sur le calcul de la probabilité conditionnelle qu'une séquence adopte un repliement donné et a été testé avec succès sur des protéines tirées de CASP10. Nous montrons que FoRSA peut être utilisé pour l'annotation structurale rapide de génomes entiers. / Analysis of protein structures using structural alphabets has provided new insights into protein function and evolution. We have used a structural alphabet called proteins blocks (PBs) which efficiently approximates protein backbone and allows abstraction of 3D protein structures into 1D PB sequences. This thesis describes applications of PBs for protein structure analysis, prediction and fold recognition. First, PBs were used to provide a refined view of structurally variable regions (SVRs) in homologous proteins in terms of conformationally similar and dissimilar SVRs in which were compiled a database of structural alignments (DoSA). We also show that the inherent conformational variations in loop regions are not correlated to corresponding conformational differences in their homologues. Second, to further analyze sequence-structure relationships in terms of PBs and other structural features, we have set up a database of pentapeptides derived from protein structures. This served as a basis for the knowledge-based prediction of local protein structure in terms of PB sequences (PB-kPRED) and of local structure plasticity (PB-SVindex). We demonstrate the successful applications of PB-kPRED for fold recognition and explored possible identification of structural and functional hotspots in proteins using PB-SVindex. Finally, an algorithm for fold recognition using a structural alphabet (FoRSA) based on calculation of conditional probability of sequence-structure compatibility was developed. This new threading method has been successfully benchmarked on a test dataset from CASP10 targets. We further demonstrate the application of FoRSA for fast structural annotations of genomes.
187

La responsabilité civile des acteurs du contrat intelligent

Francès, Clémence 08 1900 (has links)
Les contrats intelligents sont des programmes informatiques qui s’exécutent d’eux-mêmes dès lors que certaines conditions, déterminées au préalable par les parties, sont remplies. Ce type de contrat est récemment entré dans une nouvelle ère suite à la démocratisation des cryptomonnaies, notamment le Bitcoin et sa technologie sous-jacente ; la chaîne de blocs. Celle-ci se définit comme un registre virtuel répertoriant des historiques de transactions, permettant entre autres de réaliser des transferts d’actifs de pair à pair, sans intermédiaire. Désormais, la chaîne de blocs est aussi capable de servir de support au contrat intelligent, ce qui soulève de nouvelles problématiques juridiques. En raison de sa nature, il est possible que le contrat intelligent puisse causer un préjudice en cas de mauvaise ou de non-exécution. Le présent mémoire consiste à déterminer l’applicabilité du régime de responsabilité civile à ce type de contrat, au regard des dispositions du Code civil du Québec et de la Loi concernant le cadre juridique des technologies de l’information. / Smart contracts are computer programs that run on their own when conditions, previously determined by the parties, are met. This type of contract has recently entered a new era following the democratization of cryptocurrencies, especially Bitcoin and its underlying technology; the Blockchain. It’s a virtual register listing transaction history, making it possible, among other things, to carry out asset transfers from peer to peer without any intermediary. Now, the blockchain is also able to support smart contracts, which raises new legal issues. Due to its nature, it is possible that the smart contract may cause damage in case of bad or non-performance. The purpose of this paper is to determine the applicability of the civil liability regime to this type of contract, in light of the provisions of the Civil Code of Quebec and the Act to establish a legal framework for information technology.
188

Classification of P-oligomorphic groups, conjectures of Cameron and Macpherson / Classification des groupes P-oligomorphes, conjectures de Cameron et Macpherson

Falque, Justine 29 November 2019 (has links)
Les travaux présentés dans cette thèse de doctorat relèvent de la combinatoire algébrique et de la théorie des groupes. Précisément, ils apportent une contribution au domaine de recherche qui étudie le comportement des profils des groupes oligomorphes.La première partie de ce manuscrit introduit la plupart des outils qui nous seront nécessaires, à commencer par des éléments de combinatoire et combinatoire algébrique.Nous présentons les fonctions de comptage à travers quelques exemples classiques, et nous motivons l'addition d'une structure d'algèbre graduée sur les objets énumérés dans le but d'étudier ces fonctions.Nous évoquons aussi les notions d'ordre et de treillis.Dans un second temps, nous donnons un aperçu des définitions et propriétés de base associées aux groupes de permutations, ainsi que quelques résultats de théorie des invariants. Nous terminons cette partie par une description de la méthode d'énumération de Pólya, qui permet de compter des objets sous une action de groupe.La deuxième partie est consacrée à l'introduction du domaine dans lequel s'inscrit cette thèse, celui de l'étude des profils de structures relationnelles, et en particulier des profils orbitaux. Si G est un groupe de permutations infini, son profil est la fonction de comptage qui envoie chaque entier n > 0 sur le nombre d'orbites de n-sous-ensembles, pour l'action induite de G sur les sous-ensembles finis d'éléments.Cameron a conjecturé que le profil de G est équivalent à un polynôme dès lors qu'il est borné par un polynôme. Une autre conjecture, plus forte, a été plus tard émise par Macpherson : elle implique une certaine structure d'algèbre graduée sur les orbites de sous-ensembles, créée par Cameron et baptisée algèbre des orbites, soutenant que si le profil est borné par un polynôme, alors l'algèbre des orbites est de type fini.Comme amorce de notre étude de ce problème, nous développons quelques exemples et faisons nos premiers pas vers une résolution en examinant les systèmes de blocs des groupes de profil borné par un polynôme --- que nous appelons P-oligomorphes ---,ainsi que la notion de sous-produit direct.La troisième partie démontre une classification des groupes P-oligomorphes, notre résultat le plus important et dont la conjecture de Macpherson se révèle un corollaire.Tout d'abord, nous étudions la combinatoire du treillis des systèmes de blocs,qui conduit à l'identification d'un système généralisé particulier, constituébde blocs ayant de bonnes propriétés. Nous abordons ensuite le cas particulier o`u il se limite à un seul bloc de blocs, pour lequel nous établissons une classification. La preuve emprunte à la notion de sous-produit direct pour gérer les synchronisations internes au groupe, et a requis une part d'exploration informatique afin d'être d'abord conjecturée.Dans le cas général, nous nous appuyons sur les résultats précédents et mettons en évidence la structure de G comme produit semi-direct impliquant son sous-groupe normal d'indice fini minimal et un groupe fini. Ceci permet de formaliser une classification complète des groupes P-oligomorphes,et d'en déduire la forme de l'algèbre des orbites : (à peu de choses près) une algèbre d'invariants explicite d'un groupe fini. Les conjectures de Macpherson et de Cameron en découlent, et plus généralement une compréhension exhaustive de ces groupes.L'annexe contient des extraits du code utilisé pour mener la preuve à bien,ainsi qu'un aperçu de celui qui a été produit en s'appuyant sur la nouvelle classification, qui permet de manipuler les groupes P-oligomorphes en usant d'une algorithmique adaptée. Enfin, nous joignons ici notre première preuve, plus faible, des deux conjectures. / This PhD thesis falls under the fields of algebraic combinatorics and group theory. Precisely,it brings a contribution to the domain that studies profiles of oligomorphic permutation groups and their behaviors.The first part of this manuscript introduces most of the tools that will be needed later on, starting with elements of combinatorics and algebraic combinatorics.We define counting functions through classical examples ; with a view of studying them, we argue the relevance of adding a graded algebra structure on the counted objects.We also bring up the notions of order and lattice.Then, we provide an overview of the basic definitions and properties related to permutation groups and to invariant theory. We end this part with a description of the Pólya enumeration method, which allows to count objects under a group action.The second part is dedicated to introducing the domain this thesis comes withinthe scope of. It dwells on profiles of relational structures,and more specifically orbital profiles.If G is an infinite permutation group, its profile is the counting function which maps any n > 0 to the number of orbits of n-subsets, for the inducedaction of G on the finite subsets of elements.Cameron conjectured that the profile of G is asymptotically equivalent to a polynomial whenever it is bounded by apolynomial.Another, stronger conjecture was later made by Macpherson : it involves a certain structure of graded algebra on the orbits of subsetscreated by Cameron, the orbit algebra, and states that if the profile of G is bounded by a polynomial, then its orbit algebra is finitely generated.As a start in our study of this problem, we develop some examples and get our first hints towards a resolution by examining the block systems ofgroups with profile bounded by a polynomial --- that we call P-oligomorphic ---, as well as the notion of subdirect product.The third part is the proof of a classification of P-oligomorphic groups,with Macpherson's conjecture as a corollary.First, we study the combinatorics of the lattice of block systems,which leads to identifying one special, generalized such system, that consists of blocks of blocks with good properties.We then tackle the elementary case when there is only one such block of blocks, for which we establish a classification. The proof borrows to the subdirect product concept to handle synchronizations within the group, and relied on an experimental approach on computer to first conjecture the classification.In the general case, we evidence the structure of a semi-direct product involving the minimal normal subgroup of finite index and some finite group.This allows to formalize a classification of all P-oligomorphic groups, the main result of this thesis, and to deduce the form of the orbit algebra: (little more than) an explicit algebra of invariants of a finite group. This implies the conjectures of Macpherson and Cameron, and a deep understanding of these groups.The appendix provides parts of the code that was used, and a glimpse at that resulting from the classification afterwards,that allows to manipulate P-oligomorphic groups by apropriate algorithmics. Last, we include our earlier (weaker) proof of the conjectures.
189

Déterminants de la demande d'électricité des ménages au Vietnam entre 2012 et 2016 / Exploring the determinants of household electricity demand in Vietnam in the period 2012–16

Nguyen, Hoai-Son 24 June 2019 (has links)
Pays en développement avec une demande d’électricité croissante, le Vietnam a instauré la tarification progressive de l’électricité résidentielle. La fixation du tarif de l’énergie est toujours une question délicate, entre gestion de la demande, lutte contre la pauvreté, effets sur l’inflation, besoins d’investissement pour assurer la sécurité énergétique et le développement des technologies vertes. Cette action nécessite une maîtrise très profonde du comportement des consommateurs ainsi que la demande des ménages. La thèse a pour but d’explorer les facteurs qui impactent la demande d’électricité Vietnamienne au niveau résidentielle en se basant sur : les prix, les revenus, la démographie (comprenant la taille et la composition des foyers) et les vagues de chaleur. Les données de « pool et panel » sont collectées à partir des trois micro enquêtes sur le niveau de vie des foyers vietnamiens en 2012, 2014, 2016.Cette thèse estime économétriquement la demande d’électricité des ménages. Elle innove sur deux points de méthode.Premièrement, elle utilise les données individuelles issues des enquêtes nationales, avec le détail de la structure des tarifs et des factures d’électricité des ménages répondants. Cela dépasse donc les limites de beaucoup de recherches passées qui étaient basées soit sur données nationales agrégées, soit sur données individuelles mais avec une quantité et un prix imputés, soit sur données individuelles avec le détail de la structure des tarifs et des factures d’électricité mais au niveau régional seulement. Cette innovation est possible car le marché de l’électricité au Vietnamien est monopolistique, avec un seul vendeur – Electricité de Vietnam (EVN), à qui le gouvernement commande d’utiliser une grille tarifaire homogène pour tout le pays.Deuxièmement, la thèse propose une nouvelle façon d’explorer l’impact des hautes températures sur la demande d’électricité. La méthode propose d’ajouter une variable muette qui représente l’occurrence d’une vague de chaleur. Cette variable est complémentaire de la notion « Degrés-jours de refroidissement » qui représente la température dans la plupart des études précédentes.Les conclusions principales sont que: (i) Les ménages réagissent aux prix marginaux, la demande est élastique par rapport au prix. (ii) Il existe un seuil de revenu à partir duquel la consommation d'électricité des foyers augmente quand le revenu augmente : la consommation d'électricité des foyers ayant ce revenu peut être considérée comme le niveau de besoin fondamental, un seuil de pauvreté pour l’électricité. (iii) La progressivité de la tarification ne pénalise pas les familles nombreuses : le tarif progresse moins vite que les d’économies d'échelle des dépenses d'électricité. (iv) Nous n’observons pas d’effet de la composition du foyer en termes enfants / adultes / personnes âgés sur la dépense d'électricité. (v) Les vagues de chaleur - un phénomène lié au changement climatique - impactent la demande d’électricité et devraient être mieux prises en compte dans l’estimation de la demande. / As a developing country with surging demand in electricity, Vietnam has implemented demand-side management in the residential electricity market, such as increasing block tariffs to balance the tension between energy security and the development of clean technology. The implementation of demand-side management requires a deep understanding of customer behaviors and household demand. The thesis aims to explore the factors impacting on Vietnamese residential electricity demand in the period of 2012–16. The exploration focuses on four main factors: prices, income, demographics (including household size and composition), and heatwaves. The data are a pool data set and a panel data set which have been constructed from the three rounds of the micro survey Vietnam Household Living Standard Survey (VHLSS) in 2012, 2014 and 2016.The thesis has two novel points in estimating household electricity demand function.First, it uses micro survey data at national level, with detailed tariff structures and private electricity billing. In the past, researches have often used national aggregate data or national micro survey data with imputed quantity or price. Researches that use micro survey data with detail tariff schedules and electricity bills are often at a regional level rather than at a national level due to the absence of national data on tariff structures. The residential electricity market in Vietnam is a monopoly with a single seller, Vietnam Electricity (EVN). Electricity tariff schedules are proposed by EVN and set by the Government and are thus uniform in national scale. This provides a chance to estimate demand function from national micro survey data, with full detail of electricity prices and billings.Second, the thesis proposes a new way to capture the impact of high temperature on electricity demand. That is, to include an additional dummy variable to represent the extreme distribution of temperature. The additional dummy variable is a complement to the concept of cooling degree days which is a popular representation of temperature in previous researches.The estimate results lead to five main conclusions. (i) Households do respond to marginal prices and demand is elastic to price. (ii) There exists an income threshold from which household electricity consumption increases as income increases. The electricity consumption of households in the income group is the reference level of electricity poverty threshold. (iii) The increasing block tariff does not cancel out economies of scale in electricity expenditure of households. (iv) There is no difference in electricity expenditure across children, adults and elders. (v) Heatwaves – a climate change related phenomenon – do have impacts on electricity demand and need to be addressed carefully in estimating electricity demand in the future.
190

Le marché comme médium : les pratiques artistiques et les institutions sur la blockchain, entre 2011 et 2021

Blais, Christine 08 1900 (has links)
Les manifestations d’un intérêt populaire pour les jetons non fongibles (non fungible tokens (NFT)) à la suite de ventes spectaculaires par des artistes star du monde de l’art crypto en 2021 ont accentué le discours dichotomique art-argent et les positions orientées sur la marchandisation et l’hyper-financiarisation du marché contemporain. Pourtant, les conditions de production, de diffusion et de distribution des NFT et autres œuvres qui circulent sur la blockchain demeurent méconnues et ce, malgré la récente ouverture des instances du monde de l’art contemporain pour les diffuser et les commercialiser. Cette thèse s’appuie sur le travail théorique de Nathalie Heinich (2011 à 2019) et d’Arjun Appadurai (1986, 2014) afin de répondre à la question suivante : comment s’articule la construction des valeurs des œuvres qui circulent sur la blockchain ? La théorie des échanges et l’anthropologie sociale d’Arjun Appadurai permettra l’ancrage méthodologique selon lequel les objets en action (things-in-motion) révèlent leur contexte humain et social (1986, 5). Ainsi, il sera d’abord question de définir les objets – les « commodités » – et leur trajectoire afin d’être à même de constituer l’ensemble des termes du régime de valeur qui les soutient. L’analyse de quatre principales valeurs (d’authenticité, économique, éthique et relationnelle) en lien avec des productions natives de la blockchain produites entre 2011 et 2021, révèlera que ces objets démontrent finalement une approche fortement collaborative selon laquelle la création de valeur réside dans l’inclusivité, l’accessibilité, le relationnel et la propriété communautaire. / The burgeoning of popular interest in non-fungible tokens (NFT) following spectacular sales by star artists in the crypto art world have accentuated the dichotomous art-money narrative, and positions focused on commodification and hyper-financialization of the contemporary market. However, the conditions of production, dissemination and distribution of NFT and other works circulating on the blockchain remain unknown, despite the recent openness of gatekeepers in the contemporary art world to disseminate and market them. This thesis is based on the theoretical work of Nathalie Heinich (2011 to 2019) and Arjun Appadurai (1986, 2014) in order to answer the following question: how is constituted the regime of value of the works circulating on the blockchain? The exchange theory and social anthropology of Arjun Appadurai will allow the methodological anchoring according to which things-in-motion reveal their human and social context (1986, 5). Thus, we will define the objects – the “commodities” – and their trajectory in order to be able to constitute the terms of the value regime that supports them. The analysis of four main values (authenticity, economic, ethical, and relational) in connection with blockchain-native artworks produced between 2011 and 2021, will reveal that these objects ultimately demonstrate a strongly collaborative approach, according to which the creation of value resides in inclusivity, accessibility, relationality and community ownership.

Page generated in 0.0304 seconds