• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 120
  • 29
  • 16
  • Tagged with
  • 163
  • 70
  • 51
  • 47
  • 33
  • 32
  • 27
  • 20
  • 16
  • 14
  • 13
  • 13
  • 12
  • 12
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Le monopole de fait / The "monopole de fait"

Philippe, Alice 03 December 2018 (has links)
Le monopole de fait est consacré au neuvième alinéa du Préambule de la Constitution du 27 Octobre 1946, selon lequel : « tout bien, toute entreprise, dont l’exploitation a ou acquiert les caractères d’un service public national ou d’un monopole de fait, doit devenir la propriété de la collectivité ». Sous une apparente clarté, la formulation n’en est pas moins énigmatique pour le juriste. Si cette disposition a semblé justifier les nationalisations (ce qui explique le caractère ponctuel des études qui lui sont portées), la condamnation du monopole de fait relève d’une logique intemporelle : celle de la concordance des mécanismes de marché avec la réalisation de l’intérêt général. C’est notamment ce que font sourdre les origines, tout à la fois économiques et politiques, du monopole de fait ; cet euphémisme utile pour mieux désigner les féodalités économiques et la défaillance de marché. Le monopole de fait est une menace, et lorsqu’il sévit il empêche la réalisation d’une démocratie économique et sociale. Faut-il mentionner ces entreprises qui, disposant d’un pouvoir de marché d’envergure, optent pour des stratégies d’entreprise agressives. Les GAFA, les banques et les assurances, les opérateurs historiques dans les secteurs de réseaux, les géants de l’agroalimentaire, sont autant d’exemples flagrants de monopole de fait. C’est donc sans détour qu’il faut le condamner par l’appropriation collective. Notion qui se meut aux confins du droit et de l’économie, le monopole de fait constitue la pierre angulaire de ce que l’on pourrait qualifier de droit du marché. Ce droit qui viendrait pallier, mutatis mutandis, aux défaillances de marché. Rien de plus nécessaire, alors, que de caractériser le monopole de fait. Or en la matière, les différentes situations possibles présentent toutes une même caractéristique et tendent toutes au même résultat : il s’agit de l’exercice abusif d’un pouvoir de marché, aboutissant à la constitution d’une rente de situation, à la confiscation d’une rente de situation. Ce sont ces deux aspects combinés qui permettent d’identifier le monopole de fait, en droit. Fort de cette première découverte, la sanction par l’appropriation collective ne peut qu’être redéfinie. L’approche purement propriétaire qui prévalait permettait en substance l’appropriation collective (parce que les propriétés publiques sont, plus que les autres, tenues par l’intérêt général). Mais elle est reléguée, dans cette étude, à une place subsidiaire, au profit d’une analyse plus pragmatique mettant l’accent sur les différentes parties en présence, le déséquilibre de pouvoir existant entre elles, et les intérêts lésés par le monopole de fait. Pour faire écho au neuvième alinéa du Préambule de 1946, on pourrait dire que le régime applicable au monopole de fait doit permettre aux parties prenantes de de pouvoir se constituer en véritable contre-pouvoir vis-à-vis des entreprises qui, abusant elles-mêmes de leur pouvoir de marché, heurtent leurs intérêts. / The "monopole de fait" is promoted in the French Constitution’s 9th preambular paragraph of October 27, 1946, according to which: "any good, any enterprise, whose exploitation has or acquires the characteristics of a national public service or a "monopole de fait", must become the property of the collectivity". In apparent clarity, the wording is nonetheless enigmatic for the jurist. While this policy seemed to justify nationalization (which explains the punctual nature of the studies that are made to it), the condemnation of the "monopole de fait" is a timeless logic: that of the participation of the market to the realization of the public interest. This is what the origins of the "monopole de fait", both economic and political, leads to. This euphemism, is useful to precisely designate economic feudalism and market failure. The "monopole de fait" is a threat, and when it is rife it prevents the realization of what the French scholars called an economic and social democracy. Should we mention those companies which, having a large market power, opt for aggressive corporate strategies; GAFA, banks and insurance companies, the incumbent operators in the network sectors, the agribusiness giants, are all flagrant examples of "monopole de fait". It is therefore straightforward that we must condemn it by collective appropriation. Notion that moves to the confines of law and economics, the "monopole de fait" is the cornerstone of what could be called market law. This branch of law would mitigate, mutatis mutandis, market failures. Nothing morenecessary, then, than to characterize the "monopole de fait". In this field, the different situations all have the same characteristic and all tend to achieve the same result: it is an abusive exploitation resulting in a rent situation. It is these two aspects combined that make possible the identification of "monopole de fait", in law. Strong of this first step, the sanction through collective appropriation must be redefined. The purely proprietary approach that prevailed allowed, in part, collective appropriation (because public property is, more than the others, held by the public interest). But it is neglected in this study in favor of a more pragmatic analysis focusing on the various parties involved and the legitimate interests harmed by "monopole de fait". To echo the 1946’s 9th preambular paragraph, it could be said that the de facto monopoly regime must enable stakeholders to assert their right (s) against companies.
12

Nouvelles méthodes d'imagerie haute résolution pour l'analyse des composants nanoélectroniques

Shao, Kai 02 October 2012 (has links)
-Utilisation de l’interaction non-linéaire entre des impulsions laser (proche infrarouge) ultracourtes et le silicium, en mode d’absorption multiphotonique ou de génération d’harmoniques optiques, pour la stimulation et le test photo-électrique. - Développement des méthodes d’imagerie statique et dynamique pour l’analyse de défaillance en appliquant les techniques d’optique femtoseconde sur circuits intégrés. - Modélisation de l’interaction laser-silicium avec la méthode FDTD (Rsoft). / Using the nonlinear interaction between ultra-short laser pulses (λ ~ 0.8μm to1.3μm) and silicon, with multi-photon absorption or optical harmonic generation, to achieve photoelectric stimulation and testing. Development of imaging methods for static and dynamic failure analysis techniques using femtosecond laser (TOBIC, 2pLADA) on integrated circuits.
13

Contribution au développement d’outils analytiques et numériques pour quantifier et qualifier la robustesse des structures / Development of analytical and numerical tools to quantify and qualify the robustness of structure

Seck, El Hadji Boubacar 12 July 2018 (has links)
Les notions de robustesse structurale sont intégrées dans les codes de conception européens suite à l'effondrement partiel et progressif de la tour Ronan Point de Canning Town à Londres (Angleterre, 16.05.1968). Le cadre réglementaire des Eurocodes définit la robustesse comme l'aptitude d'une structure à résister à des événements accidentels dits identifiés (incendies, explosions, chocs) ou non identifiés (conséquences d'une erreur humaine, attentats) sans présenter de dégâts disproportionnés par rapport à la cause d'origine. Cette définition incite les ingénieurs à inclure dans les procédures de conception les notions de dommage initial (défaillance locale) et de dommage disproportionné (défaillance globale). L'objectif de ces travaux de thèse est de développer un outil de simulation de la robustesse de structures lorsque des incertitudes de sollicitations (évènement accidentel) et / ou une faute de dimensionnement (conception ou de réalisation) interfèrent avec les dimensionnements réglementaires. La robustesse est évaluée à travers un indice compris entre 0 (structure peu robuste) et 1 (structure très robuste) et calculé à partir des probabilités de défaillance initiale et globale. Cette thèse propose une méthodologie reposant sur la recherche d’arbres complets d'évènements illustrant l'ensemble des cheminements potentiels d'une défaillance initiale localisée jusqu'à la ruine globale. L'approche développée s'applique aux structures hyperstatiques, dans lesquelles la rupture d'un ou plusieurs éléments n'entraine pas systématiquement la ruine de l'ensemble de la structure. En effet, les éléments non endommagés restants peuvent être en mesure de supporter les chargements externes par une redistribution des efforts internes.La procédure est illustrée dans les cas de structures unidimensionnelles hyperstatiques de poutres bi-encastrées et d'un portique référencé dans les normes et classiquement étudié dans la littérature. Le mode local de défaillance de nos simulations est la formation d'une rotule (fragile ou plastique) lorsque le moment sollicitant appliqué atteint la valeur du moment résistant d'une section droite. Deux types de lois probabilistes, Gaussiennes et Log-normales, sont testées par l'approche développée et par des simulations Monte-Carlo. Les variables aléatoires choisies peuvent être indépendantes ou corrélées. Nous présentons les résultats sous forme d’arbres d'évènements comportant l'ensemble des branches exclusives, sans intersection entre branches issues d’un même nœud. Cette spécificité permet de calculer des indices caractérisant la robustesse de la structure selon chaque scénario.L'analyse de l’arbre des évènements et des indices de robustesse permet de mettre en évidence les fragilités potentielles pouvant engendrer une défaillance généralisée d'une structure vis-à-vis d’accidents ou d’actes de malveillance. La méthode développée fournit un outil de simulation et de diagnostic efficace, tant en phase de conception qu'en phase de réhabilitation, permettant d'envisager le renforcement de bâtis existants ou futurs et d'assurer la sécurité des personnes et des ouvrages environnants. / Localized initial failures in constructions can sometimes be followed by disproportionate damage (collapse) spreading to the whole or the major part of a building. Since the partial and progressive collapse of the Ronnan Point tower (London, $1968$) caused by a gas explosion, the concept of robustness has been introduced in standards. Structural robustness is defined as the ability of a structure to withstand unforeseen events causing local damage like fire, explosion or impact, without suffering disproportionate collapse. This definition encourages engineers to include the concepts of initial damage (local failure) and disproportionate damage (global failure) in design procedures. The main objective of this PhD work is to develop a simulation tool in order to highlight the potential weakness in a structure when uncertain sollicitations (accidental events) and/or dimensional fault (design or realization) interfere with the standard predictions. The robustness is evaluated by an index varying from 0 (non-robust structure) to 1 (very robust structure) and is calculated from the initial and global failure probabilities. The proposed methodology is based on an event tree analysis summurizing all the distinct potential scenarios, from the initial damage to the collapse of the structure. The developed approach is applied to statically indeterminate unidimensional structures like beams and frame. The redundancy's consequence is that the break of one or several cross sections will not necessarily lead to the collapse of the whole system: the redistribution of the internal efforts allows the remaining undamaged parts of the structure to support the external (applied) loading. The methodology is illustrated by some examples of clamped-clamped beam and frame, loaded with punctual forces. The cross sections are supposed to have an elastic behaviour until the formation of plastic hinges (local failure). Two types of probabilistic laws, Gaussian and Log-normal, are tested by the developed approach and by Monte-Carlo simulations. The chosen random variables can be either independent or correlated. The resulting complete event tree contains all the exclusive paths from an localised damage to the global failure, without intersection between branches stemming from the same node. This specific property allows to evaluate the robustness indexes of the structure with the ratio between the local and global probabilities, according to each scenario. The analysis of the event tree and of the robustness indexes allows to highlight the potential brittleness which could cause a generalized collapse of the structure with respect to accidents or malicious acts. The developed methodology provides an effective tool of simulation and diagnostic, both in the design phase and in the rehabilitation one, useful to the reinforcement of existing or future buildings and to ensure the safety of people and surrounding structures.
14

Appartenance à un groupe et déroulement du processus de défaillance des entreprises : application au cas de la France / Business groups and the bankruptcy process : application to the French case

Abdel Fattah, Lara 14 May 2016 (has links)
Cette thèse est une contribution à la littérature sur les défaillances d’entreprises et celle sur les groupes d’entreprises. Basée sur un échantillon d’entreprises françaises entrées en procédure collective sur la période entre 2006 et 2012, elle propose de repenser la défaillance à la lumière de deux faits. Le premier concerne la spécificité du cadre légal français du traitement de la défaillance qui, malgré son orientation pro-débiteur, n’empêche pas la liquidation d’une part suffisamment élevée des entreprises sollicitant l’ouverture d’une procédure collective annuellement. Le second concerne la place croissante des groupes au sein du tissu productif et la conciliation du processus de filialisation avec le principe d’indépendance de l’entité. A travers une approche pluridisciplinaire alliant le droit à l’économie, cette thèse propose d’étudier la défaillance comme un processus qui débute avec l’entrée de l’entreprise en procédure collective et s’achève avec la disparition des difficultés de l’entreprise ou la sortie de l’entreprise du marché. Quatre chapitres tentent de répondre à cet objectif. Les résultats obtenus mettent en évidence l’impact significatif de l’appartenance à un groupe et celui des caractéristiques des groupes sur les deux premières étapes du processus de défaillance ; à savoir l’entrée en procédure collective et la tentative de redressement relativement à une liquidation immédiate. Ces résultats suggèrent que les groupes d’entreprises seraient impliqués dans la survie de leurs filiales aussi longtemps que ces dernières sont encore viables. En ce sens qu’une entreprise défaillante appartenant à un groupe ne possède pas d’avantage par rapport à une entreprise indépendante, en termes de potentiel de survie après l’entrée en procédure collective. / This thesis is a contribution to both the literature on corporate bankruptcy and the literature on the internal capital markets and business groups. Using data relative to a sample of bankrupt firms over the period from 2006 to 2012, it proposes to rethink bankruptcy in light of two facts. The first one relates to the specificity of the French legal bankruptcy system which, despite its clear pro-debtor orientation, fails to save a high proportion of bankrupt firms annually. The second concerns the growing number of firms affiliated to business groups within the French productive system and the conciliation between group affiliation and the limited liability principle within business groups’ members. Through a multidisciplinary approach combining law and economics, this thesis proposes to analyze bankruptcy as a process which starts with the opening of a bankruptcy procedure and ends with the end of firm difficulties or the end of bankruptcy procedure when firm recovery becomes clearly impossible. Four chapters serve this objective.The main insights gained from the results emerging from all four chapters are consistent with a strong influence of group affiliation and group characteristics, limited to the first two steps of the bankruptcy process; namely the risk of filing for bankruptcy and the chance to benefit from a reorganization attempt relatively to liquidation. This suggests that business groups are involved in the financial support of their affiliates as long as the latter are financially sound and economically viable. Once an affiliated firm is subject to a bankruptcy procedure, its affiliation to a business groups is no longer an advantage over stand-alone firms.
15

Information des salariés et défaillance de l'entreprise. Essai sur le rôle des salariés dans la prévention des défaillances des entreprises.

Burlaud, Alain 12 September 1977 (has links) (PDF)
Attitude de la société face aux défaillances d'entreprises et rôle des salariés. Analyse extra-comptable du risque de défaillance. Analyse comptable du risque de défaillance.
16

Caractérisation de circuits intégrés par émission de lumière statique et dynamique

Ferrigno, Julie 09 December 2008 (has links)
Les circuits VLSI (”Very Large Scale Integration”) et ULSI (”Ultra Large Scale Integration”) occupent une grande place dans le monde des semi-conducteurs. Leur complexi?cation croissante est due à la demande de plus en plus fortes des grands domaines d’application, de la micro-informatique au spatial. Cependant, la complexité engendre de nombreux défauts que l’on doit prévoir ou détecter et analyser de manière à ne pas les voir se multiplier. De nombreuses techniques d’analyse de défaillance ont été développées et sont toujours largement utilisées dans les laboratoires. Cependant, nous nous sommes attachés à intégrer une nouvelle approche au processus de défaillance : la simulation de fautes dans les circuits VLSI et ULSI de technologie CMOS. Ce type d’approche permet d’aborder une analyse plus rapidement plus facilement, mais joue également un rôle prédictif de défaut dans les structures de transistors MOS. / VLSI (”Very Large Scale Integration”) et ULSI (”Ultra Large Scale Integration”) take the most important place in semi-conductor domain. Their complexi?cation is growing and is due to the bigger and bigger request from the manufacturers such as automotive domain or space application. However, this complexicity generates a lot of defects inside the components. We need to predict or to detect and analyze these defects in order to stop these phenomena. Lot of failure analyzis techniques were developped inside the laboratories and are still used. Nevertheless, we developped a new approach for failure analysis process : the faults simulation for CMOS integrated circuits. This particular kind of approach allows us to reach the analysis in more e?ective and easier way than usual. But the simulations play a predictive role for structures of MOS transistors.
17

Développement et application d’une méthode d’analyse de défaillances fonctionnelles et contribution à l’amélioration de l’utilisation des techniques optiques statiques et dynamiques

Machouat, Aziz 10 December 2008 (has links)
Avec l’évolution des technologies vers la haute intégration, il devient de plus en plus difficile de localiser les défaillances fonctionnelles situées dans la partie logique des circuits intégrés. En effet, la résolution spatiale fournie par les techniques actuelles n'est pas suffisante. Pour répondre à cette problématique, cette thèse propose une nouvelle approche qui combine le diagnostic ATPG et les techniques optiques. Cette méthode a fait ses preuves sur de nombreux cas d'analyses pour l'amélioration des rendements de production. La méthode utilisant les techniques optiques statiques et dynamiques, une contribution à l'amélioration de l'utilisation de ces techniques a également été apportée par cette thèse. / Nowadays, with the increasing complexity of new VLSI circuits, currents techniques used for functional logic failure localization reach their limits . To overcome these limitations, a new methodology has been established. This methodology, combines ATPG diagnostic and opticals techniques in order to improve accuracy of fault isolation and defect localization. This work contributes also to improve the use of dynamics and statics opticals techniques.
18

Contribution à la maintenance proactive par la formalisation du processus de pronostic des performances de systèmes industriels / Contribution to proactive maintenance with the formalization of the prognostic process for industrial system performance

Cocheteux, Pierre 15 November 2010 (has links)
Les contraintes des marchés et les attentes de la société vis-à-vis des systèmes industriels en termes économique, sécuritaire, environnementaux requièrent de considérer les performances de ces derniers de façon globale sur l'ensemble de leur cycle de vie. Cela nécessite de mettre en synergie, par exemple avec des ingénieries couplées dès la conception, le système principal et ses systèmes contributeurs, et notamment celui de soutien avec son processus pivot de maintenance. Cette focalisation intégrative sur la maintenance a conduit à évoluer d'anciennes pratiques de maintenance vers de nouvelles plus proactives faisant émerger des stratégies prévisionnelles dont le processus clé est le pronostic. Cependant ce processus fait l'objet d'un réel manque de formalisation et les travaux existants restent principalement centrés sur les composants, sans prendre en compte les performances des systèmes. Ainsi notre contribution porte sur la proposition d'architectures génériques de pronostic système permettant d'obtenir les évolutions futures des dégradations/défaillances des composants et des performances de niveaux système/sous-systèmes/composants : soit directement par un pronostic adapté, soit par modélisation de la causalité dysfonctionnelle sous forme de relations logiques supportées par un réseau de neurones flou ANFIS. Une méthodologie est associée pour définir les indicateurs de dégradation et de performance, aboutissant à la réalisation des architectures. Enfin la faisabilité de cette approche est démontrée sur un système de déroulage/pressage de la plateforme TELMA / Today requirements and constraints on industrial systems about economic, safety, ecological points of view lead to consider their performances with a global view taking into account all the system lifecycle. Thus the design of the system-of-interest has to be connected as soon as possible with the enabling systems designs, and more particularly the logistic support based on the key process of maintenance. This new consideration about maintenance allowed to change practices from reactive to predictive ones with the emergence of the proactive maintenance built on the prognostic process. However this process still lacks of generic formalization and existing works focus mainly on component level without tackling system performances. Therefore our contribution is related to the modelling of generic architectures for the systems prognostic which assesses future evolution of degradation/failure components and system/subsystem/component level performances: either by prognosticating with an adapted model, or by modelling the dysfunctional causality with logical relations supported by a neuro-fuzzy tool ANFIS. A methodology is given to define indicators for degradations and performances and to build architecture. Finally, the feasibility of this approach is shown on the manufacturing TELMA platform
19

Modélisation des comportements extrêmes en ingénierie

Piera-Martinez, Miguel 29 September 2008 (has links) (PDF)
La complexité d'un système et les approximations de modélisation qui en résultent, le caractère aléatoire des perturbations externes ainsi que la dispersion des paramètres de conception autour de leur valeur nominale sont autant de raisons qui amènent à remettre en cause les approches déterministes qui supposent une connaissance parfaite du système et de son environnement. La n´ecessité de concevoir des systèmes robustes nous conduit à élaborer des modèles statistiques qui permettent de gérer les incertitudes, et en particulier l'apparition de valeurs extrêmes à la sortie des systèmes. La modélisation des valeurs extrêmes et la protection d'un système vis-à-vis de ces évènements revêt un intérêt particulier, puisque ces valeurs extrêmes peuvent correspondre à des violations du cahier des charges, voire à des destructions du système. L'objectif de ce mémoire est de mettre en place des outils pour étudier les performances d'un dispositif lorsqu'il est sollicité à la limite du fonctionnement normalement prévu. Une valeur extrême est en général un évènement rare qui nécessite a priori de faire un grand nombre d'expériences avant d'être observé. Cependant, de telles expériences, ou les simulations qui sont de plus en plus utilisées pour les remplacer, sont souvent coûteuses. Il est donc souhaitable de caractériser les valeurs extrêmes à partir d'un petit nombre d'expériences ou de simulations. Concrètement, nous étudions la modélisation des queues de probabilité, l'estimation d'une faible probabilité de défaillance et l'estimation du pire cas de fonctionnement d'un système.
20

Statut de la faillite en théorie financière : approches théoriques et validations empiriques dans le contexte français

Ben Jabeur, Sami 27 May 2011 (has links) (PDF)
Dans la conjoncture économique actuelle un nombre croissant de firmes se trouvent confrontées à des difficultés économiques et financières qui peuvent, dans certains cas, conduire à la faillite. En principe, les difficultés ne surviennent pas brutalement, en effet, avant qu'une entreprise soit déclarée en faillite, elle est confrontée à des difficultés financières de gravité croissante : défaut de paiement d'une dette, insolvabilité temporaire, pénurie de liquidité, etc. L'identification des causes de la défaillance n'est pas évidente, puisqu'on ne saurait énumérer de manière limitative les facteurs qui la provoquent. Les causes sont multiples et leur cumul compromet d'autant plus la survie de l'entreprise. L'importance de ce phénomène et son impact sur l'ensemble de l'économie justifie le besoin de le comprendre, l'expliquer en analysant les causes et les origines. L'objectif de notre étude est de classer les entreprises en difficulté selon leur degré de viabilité et de comprendre les causes de la dégradation de leur situation. Nous effectuerons une comparaison entre trois modèles (Analyse discriminante linéaire, le modèle Logit et la régression PLS) ce qui nous permettra à partir des taux de bon classement obtenus, de choisir le meilleur modèle tout en précisant l'origine et les causes de ces défaillances.

Page generated in 0.0655 seconds