• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 93
  • 26
  • 5
  • 2
  • 1
  • 1
  • Tagged with
  • 129
  • 34
  • 22
  • 19
  • 16
  • 14
  • 14
  • 11
  • 11
  • 9
  • 8
  • 8
  • 8
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Modèles et environnement pour configurer et déployer des systèmes logiciels

Lestideau, Vincent 19 December 2003 (has links) (PDF)
Le cycle de vie du logiciel regroupe plusieurs activités comme l'analyse, la conception, la production, le test et le déploiement. Cette dernière activité est un procédé complexe composé de sous activités comme la configuration, l'installation ou la mise à jour. La complexité et l'importance du déploiement a augmenté récemment avec l'évolution des réseaux et la construction d'applications à base de composants. Il est maintenant envisageable d'imaginer des solutions permettant le déploiement automatisé de logiciels en assurant que chaque utilisateur recevra la version du logiciel la plus cohérente et la mieux adaptée à ses besoins et à son environnement tout en respectant les stratégies de déploiement de l'entreprise. Il existe de nombreuses approches et outils de déploiement, mais très peu permettent de couvrir entièrement le cycle de vie du déploiement ou alors en imposant des contraintes fortes. <br /><br />Cette thèse propose un environnement de déploiement nommé ORYA, c'est à dire une plate-forme offrant un support automatisé aux activités du cycle de vie du déploiement. ORYA est basé sur la réutilisation et l'intégration des outils de déploiement existants. Pour cela, nous proposons une abstraction des différents acteurs et entités du déploiement, ainsi qu'une infrastructure permettant de faire interopérer des outils hétérogènes et ne se connaissant pas. Ce travail traite plus particulièrement de l'activité de sélection avec l'utilisation d'un modèle de composant générique et la mise en place d'un framework basé sur un système d'annotations et de règles. La deuxième activité étudiée en détail est celle de l'installation qui est basée sur un langage de procédés permettant la description et la réalisation des procédés dans le monde réel.<br /><br />Une implémentation d'ORYA a été réalisée afin de valider notre approche dans le cadre d'une expérimentation industrielle en vraie grandeur..
72

Revenu universel : pertinence pour accompagner les métamorphoses du travail, rôle dans la politique fiscale et macroéconomique, modalités de mise en oeuvre et effets redistributifs / Relevance of a basic income to address labor automation, contributions to macroeconomic and fiscal policy and fiscal reforms to implement it in the French case

Hyafil, Jean-Éric 13 December 2017 (has links)
Cette thèse porte sur les propositions de revenu universel remplaçant les seules prestations sociales sous condition de ressource dans le système social français (RSA et éventuellement APL). Dans une première partie, nous nous demandons si l’automatisation des emplois et le souhait de désaliéner le travail justifient la mise en œuvre d’un revenu universel. Dans une deuxième partie, nous présentons les intérêts d’un revenu universel dans la politique macroéconomique et fiscale : pour compenser les effets anti-redistributifs d’une hausse de la fiscalité sur la consommation ou écologique, pour concilier austérité salariale et relance keynésienne, etc. Dans une troisième partie, nous nous intéressons aux réformes socio-fiscales permettant d’introduire un revenu universel et à leurs enjeux politiques et techniques : enjeu de la suppression des dépenses fiscales sur l’impôt sur le revenu, de l’individualisation du système socio-fiscal, possibilité d’intégrer les APL au revenu universel, conséquences pour l’allocataire du RSA et l’efficacité des services sociaux, pour le prélèvement à la source, etc. Dans la quatrième partie, nous formulons une proposition de réforme fiscale introduisant un revenu universel, que nous simulons sur un échantillon de 821 812 individus représentatifs de la population française afin de mettre en évidence ses effets redistributifs. Nous nous demandons dans quelle mesure le revenu universel pourrait remplacer les exonérations de cotisation sur les emplois à bas salaire. La dernière partie, plus sociologique, tente de poser les termes du débat sur les enjeux du revenu universel dans l’intégration par le travail et l’exclusion sociale. / This thesis focuses on proposals of basic income in lieu of means-tested cash transfers in the French welfare system. The first part questions whether job automation and a call for unalienating work can justify establishing a basic income. The second part presents the benefits of basic income for fiscal or macroeconomic policies, notably to compensate the anti-redistributive consequences of consumption or ecological taxes, and to conciliate wage wage-competitiveness with demand policies. The third part presents the characteristics of fiscal reforms that include a basic income and examines the specific case of the French socio-fiscal system: consequences of the removal of fiscal expenses on the income tax, individualization of the social and fiscal system, replacement of tax expenditures, consequences for the beneficiaries of means-tested transfers, on tax deduction at source, etc. In the fourth part, we formulate a proposal of fiscal reform that introduces a basic income, and we stimulate its redistributive consequences on a sample of 821,815 individuals representative of population in France. We investigate to what extent a basic income could replace subsidies on low-paid jobs. In the last part, we present key elements in the more sociological debate on the impact of basic income onto work incentives and social exclusion.
73

Cémentochronologie : précision et exactitude de l’estimation de l’âge au décès : influence de la taphonomie / Cementochronology : precision and accuracy of age at death estimation : impact of taphonomy

Bertrand, Benoit 18 December 2017 (has links)
L’estimation de l’âge au décès d’individus découverts en contexte médico-légal ou ar-chéologique est un sujet fondamental. La cémentochronologie fondée sur le dépôt annuel de cément acellulaire est une technique parmi les plus performantes dont l’exactitude est appréciée dans de nombreuses publications. Cependant, le manque de standardisation ralentit l’adoption de cette méthode et freine l’étude de la précision qui demeure méconnue tout comme l’impact des conditions taphonomiques sur sa fiabilité. Le premier objectif de ce travail est de mesurer la concordance des estimations effectuées, donc la précision, puis d’évaluer l’exactitude, donc la qualité de l’accord entre l’âge estimé et l’âge chronologique, en appliquant un protocole standardisé et certifié ISO-9001 pour s’affranchir des biais inhérents à la préparation. Le second objectif est d’apprécier l’impact des affections taphonomiques trop souvent négligées. La collecte des données à partir de préparations histologiques dentaires représente une opération coûteuse en temps et constitue un obstacle majeur pour conduire des études cémentochronologiques. Nous nous fixons comme autre objectif d’expérimenter un logiciel de comptage semi-automatique, fruit d’une collaboration entre anthropologues (UTML) et développeurs (FEI Visualization Sciences Group). Pour atteindre ces buts, l’étude porte sur 2000 lames histologiques réalisées à partir de 400 canines. 200 canines sont issues de collections de référence dont l’âge, le sexe, l’intervalle postmortem et la durée d’inhumation des sujets sont connus. Afin d’apprécier l’influence de la taphonomie sur la lisibilité et la précision et d’étudier l’applicabilité de la méthode à du matériel ancien, 200 canines extraites de sujets archéologiques datés entre le XIIe et le XVIIIe siècle sont intégrées à l’étude. Précision et exactitude sont approchées pour chaque classe d’âge et en tenant compte des intervalles post-mortem et des affections taphonomiques, mettant ainsi en évidence une fiabilité qui est fonction de l’âge du sujet, mais aussi de l’état de conservation des tissus. Ce travail vise, sur un échantillon standardisé conséquent, à amener une discussion sur les performances de la cémentochronologie à l’échelle individuelle et populationnelle, à apporter des recommandations et proposer un modèle de prédiction pour minimiser les différences entre âge estimé et âge chronologique. / Age at death estimation is a fundamental component of creating a biological profile in forensic and bioarchaeological contexts. Cementochronology based on annual deposition of acellular cementum is one of the most effective ageing techniques, and its accuracy, i.e. the agreement between estimated age and chronological age, is acknowledged in many publications. However, the lack of standardization slows down the adoption of this method and hinders the evaluation of its precision that remains unknown as well as the impact of taphonomical processes. The first objective of this thesis is to measure the agreement between cementum estimates, i.e. the precision, and then to assess the accuracy through the evaluation of the quality of the accordance between chronological age and estimates based on a standardized and ISO-9001 certified protocol to overcome bias due to sample preparation. The second objective is to gauge the impact of taphonomical effects too often neglected. Counting cementum increments on histological preparations is time-consuming and represents a major difficulty to perform cementochronological studies. Another goal is to experiment a semi-automatic program resulting from a col-laboration between anthropologists (UTML) and software developers (FEI Visualization Sciences Group). To achieve these goals, our study is based on 2000 histological sections from 400 canines. 200 canines are derived from reference collections with documented age, sex, postmortem interval and burial duration. In order to grasp the influence of taphonomy on slices readability and on precision and to investigate the applicability of this method on ancient material, 200 canines extracted from archaeological assemblages dated between the XIIth century and XVIIIth century are included in the study. Accuracy and precision are assessed for each age group in considering post-mortem intervals and taphonomical conditions and show a reliability influenced by age but also by tissue preservation. This work aims, on a large standardized sample, to discuss cementochronology’s performance for individual and population approaches, to provide recommen-dations and to propose a prediction model to reduce differences between estimated age and chronological age.
74

L'analyse de données génomiques et l'annotation à l'heure des NGS : la bioinformatique 2.0 / Genomic data analysis and annotation in the NGS era : Bioinfomatics 2.0

Paganini, Julien 15 December 2015 (has links)
Les récents progrès technologiques en termes de séquençage de données génomiques ont entraîné une forte croissance des données disponibles et l'apparition de nouveaux besoins. Initialement limitée à l'analyse de petite quantité de données, la bioinformatique a dû s'adapter à ce nouveau contexte technologique et scientifique afin de répondre aux nouveaux challenges proposés. Par l'intermédiaire de différents projets réalisés dans des contextes différents, cette thèse s'intègre dans ce changement contextuel où la bioinfomatique n'est plus limitée à l'utilisation successive d'outils à objectifs unitaire entrecoupée d'étapes humaine dépendantes. Focalisés sur le développement de stratégies d'analyse complexes pour le développement ou la mise à disposition d'outils entièrement automatisés et la production de données à haute valeur ajoutée, ces travaux permettent de comprendre le rôle important de la bioinformatique 2.0. Ainsi nous montrerons comment elle doit être à même de répondre à des objectifs précis par l'intermédiaire de stratégies intégrant les concepts de la biologie, les outils bioinformatiques existants et l'expertise humaine associée au domaine. En conclusion nous discuterons du nouveau rôle et de l'impact futur de la bioinformatique 2.0 qui requiert une expertise tant sur le plan biologique qu'informatique adaptée aux données NGS. / Recent technological advances in terms of genomic sequencing data led to a strong growth of available data and the emergence of new needs. Initially limited to the analysis of simple sequence or limited amount of data, bioinformatics has to adapt to this new technological and scientific context to meet the new challenges offered. Through different projects in different genomic era, this thesis fits into this contexts change where bioinfomatics is no longer limited to the use of tool with unitary goal and human dependent steps. Focused on the development of complex analysis strategies for the development or the availability of fully automated tools and high-value data, this work introduce the important role of bioinformatics version 2.0. We will show how it is able to answer to precise biological question through specific strategy that integrate all the biological concepts, existing bioinformatics tools and human expertise related to the domain. To conclude, we discuss about the role and the impact of the bioinformatics 2.0 that requires a expert vision at biological and computers level adapted to NGS data.
75

Une approche générique pour l'automatisation des expériences sur les réseaux informatiques / A generic approach to network experiment automation

Quereilhac, Alina 22 June 2015 (has links)
Cette thèse propose une approche générique pour automatiser des expériences sur des réseaux quelle que soit la technologie utilisée ou le type de plate-forme d'évaluation. L'approche proposée est basée sur l'abstraction du cycle de vie de l'expérience en étapes génériques à partir desquelles un modèle d'expérience et des primitives d'expérimentation sont dérivés. Une architecture générique d'expérimentation est proposée, composée d'un modèle d'expérience générique, d'une interface pour programmer des expériences et d'un algorithme d'orchestration qui peux être adapté aux simulateurs, émulateurs et bancs d'essai de réseaux. La faisabilité de cette approche est démontrée par la mise en œuvre d'un framework capable d'automatiser des expériences sur toute combinaison de ces plateformes. Trois aspects principaux du framework sont évalués : son extensibilité pour s'adapter à tout type de plate-forme, son efficacité pour orchestrer des expériences et sa flexibilité pour permettre des cas d'utilisation divers, y compris l'enseignement, la gestion des plate-formes et l'expérimentation avec des plates-formes multiples. Les résultats montrent que l'approche proposée peut être utilisée pour automatiser efficacement l'expérimentation sur les plates-formes d'évaluation hétérogènes et pour un éventail de scénarios variés. / This thesis proposes a generic approach to automate network experiments for scenarios involving any networking technology on any type of network evaluation platform. The proposed approach is based on abstracting the experiment life cycle of the evaluation platforms into generic steps from which a generic experiment model and experimentation primitives are derived. A generic experimentation architecture is proposed, composed of an experiment model, a programmable experiment interface and an orchestration algorithm that can be adapted to network simulators, emulators and testbeds alike. The feasibility of the approach is demonstrated through the implementation of a framework capable of automating experiments using any combination of these platforms. Three main aspects of the framework are evaluated: its extensibility to support any type of platform, its efficiency to orchestrate experiments and its flexibility to support diverse use cases including education, platform management and experimentation with multiple platforms. The results show that the proposed approach can be used to efficiently automate experimentation on diverse platforms for a wide range of scenarios.
76

Contribution à l'automatisation des opérations au sol des aéroports / A contribution to automation of airport ground operations

Alonso Tabares, Diego 18 December 2018 (has links)
The sustainability of air transport relies on proper and timely aircraft ground handling. Lack of manpower and current ground handling industry conditions makes innovation and automation the only way to support existing growth rates. This research presents the state of the art of aircraft ground handling at airports, identifying the challenges to overcome in building safe, efficient and environmental friendly automated ground operations. The greatest opportunity lies with automated docking of ground support equipment to aircraft, with further autonomous vehicles moving around the aircraft and automated systems within the aircraft later on. The problem formulation for resources assignment for ground handling in a fully automated environment is undertaken. On-line solutions for the fleet assignment problem are proposed and applied to an airport case. / La durabilité du transport aérien est basée sur le bon déroulement de la manutention des avions. Le manque de main d’œuvre et les conditions existantes sur l’industrie de la manutention au sol fait que l’innovation et l’automatisation sont la seule façon de maintenir le rythme de croissance actuel. Cette recherche présente l’état de l’art de la manutention au sol des avions, identifie les défis à résoudre pour parvenir à des opérations au sol sécurisées, efficaces et respectueuses de l’environnement. La meilleure opportunité est dans l’accostage automatique des matériels au sol à l’avion, avec des véhicules autonomes qui vont évoluer autour de l’avion et des systèmes automatisés dans l’avion lui-même. La formulation du problème pour l’allocation des ressources pour la manutention au sol des avions dans le cadre totalement automatisé est entreprise. Des solutions en ligne pour le problème d’assignation des flottes sont proposées et appliquées dans un aéroport.
77

Développement de nouvelles méthodes de mesure du frottement transversal entre fibres / Development of new measurement methods of transversal friction between fibers

Gassara, Houssem Eddine 13 December 2016 (has links)
Le comportement mécanique des structures fibreuses, particulièrement le comportement transverse de filés de fibres et de mèches multi-filamentaires est tributaire entre autre du contact et glissement inter fibre. La connaissance de loi de comportement en compression transverse est un verrou scientifique de taille lors de la modélisation numérique du comportement mécanique de structures fibreuses. La mesure des propriétés frictionnelles des fibres, dont les dimensions transversales sont en général très faibles, est une entreprise très délicate. Le contact et le mouvement relatif entre deux fibres, malgré leurs complexités peuvent être résumés par trois cas simples, schématisés ci-dessous. Il existe dans la littérature scientifique un certain nombre d’études et de dispositifs sur le contact et le frottement interfibre, mais ils se concentrent tous sur les cas A et B, rien ne permet pour l’instant de modéliser et de mesurer le frottement interfibre dans la configuration C. Or, c’est bien dans cette dernière configuration que se produisent les mouvements interfibre lors de la compression transversale des filés ou mèches multi-filamentaire. De nouveaux dispositifs expérimentaux ont été conçus et développés afin de caractériser le frottement transversal entre fibres. / The mechanical behavior of fibrous structures, particularly the transverse behavior of spun yarns and multi-filament strands is among others dependent on contact and inter fiber slippage. Knowledge of law of transverse compression behavior is a relatively important lock at numerical modeling of fibrous structures’ mechanical behavior. Measuring of frictional properties of very thin fibers is not easy because of very low levels of normal and tangential interfiber forces developed during the fiber contact. The contact and relative motion between two fibers, despite their complexity, can be summarized by three simple cases shown above. In scientific literature, there are a number of studies and experimental devices on interfiber contact and friction, but they all focus on the A and B cases; nothing is proposed unfortunately in the experimental literature on the t-t friction measurement type (case (c) in Figure above). However, it is in this configuration that the inter fiber movements occur during transverse compression of yarns or multi-filament strands. New experimental devices have been designed and developed in order to characterize the transversal friction between fibers.
78

Le rôle des gaz à effet de serre dans les variations climatiques passées : une approche basée sur des chronologies précises des forages polaires profonds / The role of greenhouse gases in past climatic variations : an approach based on accurate chronologies of deep polar ice cores

Beeman, Jai Chowdhry 21 October 2019 (has links)
Les forages polaires profonds contiennent des enregistrements des conditions climatiques du passé et de l'air piégé qui témoignent des compositions atmosphériques du passé, notamment des gaz à effet de serre. Cette archive nous permet de décrypter le rôle des gaz à effet de serre dans les variations climatiques pendant huit cycles glaciaire-interglaciaires, soit l'équivalent de plus de 800 000 ans. Les carottes de glace, comme toute archive paléoclimatique, sont caractérisées par des incertitudes liées aux processus qui traduisent les variables climatiques en proxy, ainsi que par des incertitudes dues aux chronologies de la glace et des bulles d'air piégées. Nous développons un cadre méthodologique, basé sur la modélisation inverse dite Bayesienne et l'évaluation de fonctions complexes de densité de probabilité, pour traiter les incertitudes liées aux enregistrements paléoclimatiques des carottes de glace de manière précise. Nous proposons deux études dans ce cadre. Pour la première étude, nous identifions les probabilités de localisation des points de changement de pente de l'enregistrement du CO2 dans la carotte de WAIS Divide et d'un stack d'enregistrements de paléotempérature a partir de cinq carottes Antarctiques avec des fonctions linéaires par morceaux. Nous identifions aussi les probabilités pour chaque enregistrement individuel de température. Cela nous permet d'examiner les changements de pente à l'échelle millénaire dans chacune des séries, et de calculer les déphasages entre les changements cohérents. Nous trouvons que le déphasage entre la température en Antarctique et le CO2 à probablement varié (en restant inferieur, generalement, à 500 ans) lors de la déglaciation. L'âge des changements de temperature varie probablement entre les sites de carottage aussi. Ce résultat indique que les mécanismes qui reliaient la température en Antarctique et le CO2 lors de la déglaciation pouvaient être differents temporellement et spatialement. Dans la deuxième étude nous développons une méthode Bayesienne pour la synchronisation des carottes de glace dans le modèle inverse chronologique IceChrono. Nos simulations indiquent que cette méthode est capable de synchroniser des séries de CH4 avec précision, tout en prenant en compte des observations chronologiques externes et de l'information à priori sur les caractéristiques glaciologiques aux sites de forage. La méthode est continue et objective, apportant de la précision à la synchronisation des carottes de glace. / Deep polar ice cores contain records of both past climate and trapped air that reflects past atmospheric compositions, notably of greenhouse gases. This record allows us to investigate the role of greenhouse gases in climate variations over eight glacial-interglacial cycles. The ice core record, like all paleoclimate records, contains uncertainties associated both with the relationships between proxies and climate variables, and with the chronologies of the records contained in the ice and trapped air bubbles. In this thesis, we develop a framework, based on Bayesian inverse modeling and the evaluation of complex probability densities, to accurately treat uncertainty in the ice core paleoclimate record. Using this framework, we develop two studies, the first about Antarctic Temperature and CO2 during the last deglaciation, and the second developing a Bayesian synchronization method for ice cores. In the first study, we use inverse modeling to identify the probabilities of piecewise linear fits to CO2 and a stack of Antarctic Temperature records from five ice cores, along with the individual temperature records from each core, over the last deglacial warming, known as Termination 1. Using the nodes, or change points in the piecewise linear fits accepted during the stochastic sampling of the posterior probability density, we discuss the timings of millenial-scale changes in trend in the series, and calculate the phasings between coherent changes. We find that the phasing between Antarctic Temperature and CO2 likely varied, though the response times remain within a range of ~500 years from synchrony, both between events during the deglaciation and accross the individual ice core records. This result indicates both regional-scale complexity and modulations or variations in the mechanisms linking Antarctic temperature and CO2 accross the deglaciation. In the second study, we develop a Bayesian method to synchronize ice cores using corresponding time series in the IceChrono inverse chronological model. Tests show that this method is able to accurately synchronize CH4 series, and is capable of including external chronological observations and prior information about the glaciological characteristics at the coring site. The method is continuous and objective, bringing a new degree of accuracy and precision to the use of synchronization in ice core chronologies.
79

Digitalisering inom redovisningsbranschen : En kvalitativ studie på små redovisningsbyråer

Mavi, Metin, Yilmaz, Enis January 2021 (has links)
Syfte: Syftet med denna studie är att undersöka digitaliseringens institutionalisering i små redovisningsbyråer samt dess påverkan på redovisningsprocessen.  Metod: Vi har genomfört en kvalitativ studie och en deduktiv forskningsansats har använts. Data samlades in genom semistrukturerade telefonintervjuer och analyserades med hjälp av tematiska analys. Totalt intervjuades tio små redovisningsbyråer.  Resultat &amp; slutsats: Digitaliseringens institutionalisering i små redovisningsbyråer kan delvis förklaras av den nyinstitutionella teorins isomorfismer. Dessa institutionella krafter har institutionaliserat digitaliseringen i byråerna i varierande utsträckning. Vi kan konstatera att den tvingande och härmande isomorfismen haft störst påverkan och att den normativa isomorfismen inte påverkat byråerna i lika hög utsträckning. Studien visar att digitaliseringen har påverkat redovisningsprocessens samtliga steg. Processen ser dock fortfarande likadan ut. Digitaliseringen har bara underlättat arbetet.  Examensarbetets bidrag: Studien lämnar ett teoretiskt bidrag till den befintliga litteraturen genom att visa att den nyinstitutionella teorins isomorfismer kan förklara hur digitaliseringen har institutionaliserats i små redovisningsbyråer. Studien lämnar ytterligare ett teoretiskt bidrag till den befintliga litteraturen genom att visa att redovisningsprocessens samtliga steg i små redovisningsbyråer har påverkats av digitaliseringen men att processen fortfarande är densamma, det vill säga att konsulten fortfarande utför samma tjänst men att arbetet underlättats. Studiens praktiska bidrag är att små redovisningsbyråer som inte har digitaliserat sin verksamhet bör göra det samt att studenter och nyexaminerade ekonomer bör ha en inblick i hur redovisningsarbetet har påverkats av digitaliseringen.  Förslag till fortsatt forskning: Vidare studier kan undersöka digitaliseringens institutionalisering i små företag som upprättar sin redovisning internt samt dess påverkan på redovisningsprocessen i dessa företag. / Aim: The purpose of this study is to investigate the institutionalisation of digitalisation in small accounting firms and the impact it has on the accounting process. Method: We have conducted a qualitative study and a deductive research approach has been used. Data were collected through semi-structured telephone interviews and analyzed using thematic analysis. A total of ten small accounting firms were interviewed. Result &amp; Conclusions: The institutionalisation of digitalisation in small accounting firms can partly be explained by the isomorphisms of the new institutional theory. These institutional forces have institutionalized the digitalisation in the small accounting firms to varying extent. We can state that the coercive and mimetic isomorphism has had the greatest impact and that the normative isomorphism does not affect the small accounting firms to the same extent. The study shows that digitalisation has affected all the steps of the accounting process. However, the process still looks the same. Digitalisation has only facilitated the work. Contribution of the thesis: The study makes a theoretical contribution to the existing literature by showing that the isomorphisms of the new institutional theory can explain how digitalisation has been institutionalized in small accounting firms. The study makes another theoretical contribution to the existing literature by showing that all the steps in the accounting process in small accounting firms have been affected by the digitalisation but that the process continues to be the same, the accountant continues to provide the same service, but the work has been facilitated. The practical contribution of the study is that small accounting firms that have not digitized their business should do so, and that students and newly graduated economists should have an insight into how the accounting work has been affected by digitalisation. Suggestions for future research: Further studies can investigate the institutionalisation of digitalisation in small companies that employs in-house accountants and the impact it has on the accounting process in these companies.
80

Modélisation théorique et processus associés pour Architectes Modèle dans un environnement multidisciplinaire / Theoretical Modeling and associated processes for Model Architects in a multidisciplinary simulation environment (multiphysics)

Fontaine, Gauthier 28 February 2017 (has links)
La simulation multi-disciplinaire et multi-physique représente un enjeu scientifique et industriel majeur. La simulation a été essentiellement traitée par les physiciens (mécanique, électromagnétique, ...) comme un problème numérique sur des cas d'étude très précis mais n'a jamais été abordée d'un point de vue système. La problématique générale posée par la simulation de systèmes complexes inclut la composition des modèles, l'optimisation multi-objectifs, la sémantique et la vérification formelle des compositions et le cadre offert par l'ingénierie système. Cette thèse propose une démarche originale établissant les fondements théoriques et méthodologiques pour un processus sans rupture entre ingénierie système, optimisation multi-objectif et simulation multi-physique. Des cas d'études issus de l'automobile démontrent la validité de cette approche expérimentée sur la base du langage Modelica. / Multi-disciplinary and multi-physics simulation represents a major scientific and industrial challenge. The simulation has essentially been considered by physicists (mechanic domain, electromagnetic domain, ...) as a numerical problem on specific case studies but has never been adressed from a system perspective. The general problem induced by the numerical simulation of complex systems include model composition, multi-objective optimization, the semantics and formal verification of compositions and the frame of systems engineering. This thesis proposes an original approach establishing the theoretical and methodological foundations for a seamless process between systems engineering, multi-objective optimization and multi-physics simulation. Automotive case studies show the validity of such an approach based on Modelica langage.

Page generated in 0.1542 seconds