• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 73
  • 19
  • 4
  • 1
  • Tagged with
  • 98
  • 21
  • 17
  • 17
  • 16
  • 13
  • 11
  • 10
  • 10
  • 9
  • 7
  • 7
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Empilements de sphères et bêta-entiers

Verger-Gaugry, Jean-Louis 09 June 2006 (has links) (PDF)
Les objets considérés dans cette thèse sont les empilements de sphères égales, principalement de $R^n$, et les beta-entiers, pour lesquels on utilise indifféremment le langage des empilements de sphères ou celui des ensembles uniformément discrets pour les décrire. Nous nous sommes concentrés sur les problèmes suivants : (i) aspects métriques et topologiques de l'espace des empilements de sphères pour lequels nous prouvons un théorème de compacité qui généralise le Théorème de Sélection de Mahler relatif aux réseaux, (ii) les relations entre trous profonds et la densité par la constante de Delone ainsi que la structure interne asymptotique, en couches, des empilements les plus denses, (iii) les empilements autosimilaires de type fini pour lesquels nous montrons, pour chacun, l'existence d'un schéma de coupe-et-projection associé à un entier algébrique (l'autosimilarité) dont le degré divise le rang de l'empilement, dans le contexte des quasicristaux mathématiques, (iv) les empilements de sphères sur beta-réseaux, dont l'étude a surtout consisté à comprendre l'ensemble discret localement fini $Z_\beta$ des beta-entiers et à proposer une classification des nombres algébriques qui complémente celle de Bertrand-Mathis, reportée dans un article de Blanchard, et où la mesure de Mahler de beta intervient naturellement.
72

Routage Efficace pour les Réseaux Pair-à-Pair utilisant des Tables de Hachage Distribuées

Fayçal, Marguerite 28 May 2010 (has links) (PDF)
Ce mémoire est une synthèse de nos travaux de recherche menés au sein des laboratoires d'Orange Labs (anciennement France Télécom R&D) pour répondre à une problématique identifiée par ledit opérateur et concernant les flux d'échanges en mode pair-à-pair (P2P). Communément assimilé à un échange de fichiers, le P2P a de nombreuses applications. Il correspond à une évolution du monde du logiciel, des réseaux et des équipements. Au-delà du partage, nous sommes confrontés à une puissance disponible de façon distribuée (en termes de CPU, bande passante, stockage, etc.). La montée en puissance du P2P exige de nouveaux systèmes pouvant satisfaire les besoins des usagers, mais aussi ceux des fournisseurs d'accès à Internet (FAI) et autres opérateurs de réseaux. Les premiers cherchent en permanence une bonne qualité de service (QoS) bien perceptible. Les seconds aspirent à l'optimisation de l'usage des ressources du réseau (notamment la bande-passante) et à la réduction des différents coûts d'opération et de maintenance (dont ceux découlant de leurs accords économiques inter-opérateurs). D'où l'intérêt de nos travaux de recherche qui visent à sensibiliser un réseau P2P au réseau IP sous-jacent, afin d'aboutir à un système de routage P2P efficace, en phase avec les politiques des réseaux d'infrastructures sous-jacents. Ces travaux se focalisent sur les systèmes P2P utilisant des tables de hachage distribuées (DHT), après les avoir étudiées et analysées. Ce mémoire commence par une analyse des principaux protocoles de découverte de ressources dynamiques dans les différentes architectures de réseaux P2P. Les exigences requises pour un routage P2P efficace sont par la suite établies. Il s'en suit une présentation des techniques de génération de l'information de proximité sous-jacente, ainsi que des techniques et principaux systèmes d'exploitation de cette information. Nos travaux de recherche ont abouti à la définition, la conception, la spécification et l'analyse individuelle et comparative de deux systèmes : CAP (Context-Aware P2P system) et NETPOPPS (NETwork Provider Oriented P2P System). Le premier système est sensible au contexte et introduit une sémantique dans les identifiants des pairs et des objets. Le second système est orienté opérateur de réseau, et adapte les flux P2P à la topologie sous-jacente et aux politiques de l'opérateur, tout en simplifiant la gestion des différents identifiants.
73

La comparaison structurale des protéines : de la maximisation du recouvrement de cartes de contacts à l'alignement basé sur les distances

Malod-Dognin, Noël 29 January 2010 (has links) (PDF)
En biologie structurale, il est couramment admit que la structure tridimensionnelle d'une protéine détermine sa fonction. Ce paradigme permet de supposer que deux protéines possédant des structures tridimensionnelles similaires peuvent partager un ancêtre commun et donc posséder des fonctions similaires. Déterminer la similarité entre deux structures de protéines est une tâche importante qui a été largement étudiée. Parmi toutes les méthodes proposées, nous nous intéressons à la mesure de similarité appelée “maximisation du recouvrement de cartes de contacts” (ou CMO), principalement parce qu'elle fournit des scores de similarité pouvant être utilisés pour obtenir de bonnes classifications automatiques des structures de protéines. Dans cette thèse, la comparaison de deux structures de protéines est modélisée comme une recherche de sous-graphe dans des graphes k-partis spécifiques appelés graphes d'alignements, et nous montrons que cette tâche peut être efficacement réalisée en utilisant des techniques avancées issues de l'optimisation combinatoire. Dans la seconde partie de cette thèse, nous modélisons CMO comme une recherche de sousgraphe maximum induit par les arêtes dans des graphes d'alignements, problème pour lequel nous proposons un solveur exact qui surpasse les autres algorithmes de la littérature. Même si nous avons réussi à accélérer CMO, la procédure d'alignement requière encore trop de temps de calculs pour envisager des comparaisons à grande échelle. La troisième partie de cette thèse est consacrée à l'accélération de CMO en utilisant des connaissances issues de la biologie structurale. Nous proposons une approche hiérarchique pour résoudre CMO qui est basée sur les structures secondaires des protéines. Enfin, bien que CMO soit une très bonne mesure de similarité, les alignements qu'elle fournit possèdent souvent de fortes valeurs de déviation (root mean squared deviation, ou RMSD). Pour palier à cette faiblesse, dans la dernière partie de cette thèse, nous proposons une nouvelle méthode de comparaison de structures de protéines basée sur les distances internes que nous appelons DAST (pour Distance-based Alignment Search Tool). Elle est modélisée comme une recherche de clique maximum dans des graphes d'alignements, pour laquelle nous présentons un solveur dédié montrant de très bonnes performances.
74

Elaboration, comportement et durée de vie en fatigue du caoutchouc naturel renforcé de silice

Bennani, Amine 05 April 2006 (has links) (PDF)
Les élastomères sont renforcés grâce à l'incorporation de charges telles que les noirs de carbone ou encore la silice.<br />Ce qui leur confère de meilleures propriétés (résistance à la rupture, abrasion, rigidité...). Actuellement, les charges<br />renforçantes les plus souvent utilisées sont les noirs de carbone. La substitution de cette charge classique par la silice constitue un challenge dans l'industrie pneumatique. En effet, il est admis que la silice diminue la résistance au roulement des pneus, de matrice synthétique, tout en conservant une bonne adhérence. La particularité de cette étude est d'analyser l'influence du renfort par la silice sur le comportement mécanique en endurance du caoutchouc naturel. Son principal objectif est de comprendre l'influence de la morphologie de la silice (surface développée en interaction avec le caoutchouc, dispersibilité, activité chimique) sur le comportement<br />mécanique et plus spécialement sur la durée de vie en fatigue du caoutchouc naturel ainsi chargé. L'élaboration de deux matériaux permettant d'établir l'influence de la morphologie de la silice constitue une première étape déterminante du travail. Elle se base sur l'incorporation de deux nuances de silice précipitée dans une matrice de caoutchouc naturel pouvant présenter des propriétés rhéologiques similaires. Les essais de caractérisation mécanique (monotones et cycliques) selon différents types de sollicitation (traction, compression, relaxation, traction cyclique, torsion) ainsi que des essais de traction in situ au MEB permettent d'identifier les mécanismes de déformation, de renfort et d'endommagement présents. L'interprétation des résultats de cette campagne expérimentale est basée sur une caractérisation microstructurale approfondie de l'état de dispersion de la silice ainsi que celui de la cristallisation de la matrice en caoutchouc naturel.. Les résultats des essais de fatigue ainsi que les observations microscopiques des mécanismes de propagation des fissures en fatigue permettent d'établir un critère de durée de vie prenant en compte les modes de sollicitation (traction, compression, et torsion). Celui-ci est capable de prévoir la durée de vie ainsi que le lieu d'amorçage des fissures. Il s'avère que, selon le mode de sollicitation appliqué, les propriétés de dispersion de la silice sont plus ou moins importantes dans le renforcement et l'endurance du caoutchouc naturel chargé de silice.<br />Ce travail fait donc appel à la physico-chimie, à la mécanique et aux observations microstructurales, en allant de l'élaboration des matériaux jusqu'à la modélisation mécanique du comportement et de la durée de vie.
75

Relation entre la satisfaction et la qualité de vie reliée à la santé bucco-dentaire chez les patients totalement édentés

Michaud, Pierre-Luc 06 1900 (has links)
Problématique : La satisfaction des patients et la qualité de vie reliée à la santé bucco-dentaire (OHRQoL) sont deux mesures de résultats fréquemment utilisées durant les études cliniques. Néanmoins, chez les patients totalement édentés, les évidences scientifiques relatives au niveau de relation entre ces deux mesures sont faibles. De plus, on ignore toujours quels éléments de la satisfaction des patients relativement à leurs prothèses partagent la meilleure relation avec la OHRQoL. Objectifs : Déterminer, chez les patients totalement édentés, s’il existe un lien entre leur satisfaction de leurs prothèses et leur OHRQoL et identifier les déterminants de satisfaction qui démontrent le meilleur niveau de relation avec la OHRQoL. Méthodologie : Les données provenant de 255 patients totalement édentés qui ont participé à une étude randomisée et contrôlée ont été utilisées. La OHRQoL a été évaluée à l’aide du questionnaire Oral Health Impact Profile (OHIP-20). Le McGill Denture Satisfaction Instrument a été utilisé pour estimer la satisfaction des patients. Ces mesures ont été prises au temps initial, à 6 mois et à 12 mois suivants la mise en bouche des prothèses. Des analyses statistiques de régression linéaire simples et multiples ont été utilisées afin d’évaluer la relation entre les deux mesures. Résultats : Une relation positive et considérable existe entre la satisfaction des patients totalement édentés et leur OHRQoL. La difficulté masticatoire (P = .005) et la condition buccale (P = .002) sont les éléments de la satisfaction qui possèdent le meilleur lien avec la OHRQoL. Ces deux facteurs expliquent 46.4% (P = .0001) de la variance dans l’amélioration d’OHIP suivant un traitement prosthodontique. La relation décrite est dépendante du temps, mais pas du type de traitement ni des variables sociodémographiques. Conclusions : Dans les limites de l’étude, il est conclu qu’une relation positive existe entre la satisfaction des patients et leur OHRQoL. La difficulté masticatoire et la condition buccale sont les deux éléments de la satisfaction les plus importants. / Statement of problem: Patients’ satisfaction and oral health-related quality of life (OHRQoL) are two commonly used patient-reported outcomes. Convincing evidence is lacking to demonstrate the relation between these two outcomes in completely edentate patients who receive prosthodontic treatments. In addition, it is still unclear which elements of denture satisfaction share the best association with OHRQoL. Objectives: To evaluate the level of association between patients’ denture satisfaction and OHRQoL in edentulous patients, and to identify the determinants of satisfaction that best predict OHRQoL. Methods: Data from 255 edentulous elders who participated in a randomized clinical trial were used to analyze the relationship between OHRQoL and denture satisfaction. OHRQoL was evaluated with the Oral Health Impact Profile (OHIP-20) questionnaire. The McGill Denture Satisfaction Instrument was used to assess patients’ satisfaction with treatment. Outcomes were measured prior to treatment and 6 and 12 months after delivery of new dentures. Simple and multiple linear regressions analyses were performed to statistically assess the relationship between the variables. Results: A highly positive association exists between oral health-related quality of life and denture satisfaction ratings. Chewing ability (P = .005) and oral condition (P = .002) are the aspects of satisfaction presenting the best association with OHRQoL. These two variables explained 46.4% (P = .0001) of the variance in OHIP’s change score following treatment. This association varied with time, but not with type of treatment or socio-demographic variables. Conclusions: Within the limitations of this study, a highly positive association exists between OHRQoL and denture satisfaction. Chewing ability and oral condition are the determinant of denture satisfaction best associated with OHRQoL, predicting 46.4% of its improvement following a treatment.
76

Diffusion dans un hydrogel : applications aux biocapteurs et optimisation de la technique de spectroscopie par corrélation de fluorescence (FCS)

Gendron, Pierre-Olivier January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
77

Transport quantique dans les verres de spin

Capron, Thibaut 30 March 2011 (has links) (PDF)
Le verre de spin est une phase de la matière dans laquelle le désordre magnétique est gelé. Étant considéré comme un système modèle des verres en général, il a fait l'objet de nombreux travaux théoriques et expérimentaux. Les recherches ont convergé vers deux principales descriptions de l'état fondamental du système diamétralement opposées. D'une part, la solution " champ-moyen " nécessite une brisure de symétrie non triviale, et l'état fondamental est composé de multiples états organisés en une structure hiérarchique. D'autre part, une approche de " gouttelettes ", fondée sur la dynamique hors-équilibre d'un état fondamental unique. La validation expérimentale d'une de ces deux théories nécessite une observation détaillée de l'échantillon au niveau microscopique. La physique mésoscopique, basée sur les effets d'interférences électroniques, propose un outil unique pour accéder à cette configuration microscopique des impuretés: les fluctuations universelles de conductance. En effet, ces fluctuations représentent une empreinte unique du désordre dans l'échantillon. Ce travail présente la mise en œuvre de mesures de fluctuations de conductance universelles dans les verres de spin. Les effets d'interférences électroniques étant sensibles aux processus de décohérence du verre de spin, ils donnent accès expérimentalement à de nouvelles quantités concernant les excitations du système. La mesure des corrélations entre les empreintes du désordre permet quant à elle d'explorer sous un angle nouveau l'ordre non conventionnel de cet état vitreux.
78

Quantification par analyse d'images de la granulométrie des roches fragmentées: amélioration de l'extraction morphologique des surfaces, amélioration de la reconstruction stéréologique

Outal, Souhaïl 01 June 2006 (has links) (PDF)
Cette recherche s'inscrit dans le cadre général du contrôle de qualité des processus utilisés en production minière, tels que le tir à l'explosif, le broyage et le concassage. Elle s'intéresse plus particulièrement à la quantification par traitement d'images de la granulométrie des roches fragmentées. Globalement, les développements menés portent sur l'amélioration des deux étapes les plus déterminantes de la mesure : l'extraction des contours des fragments de roches dans l'image (2D) et la reconstruction de la courbe granulométrique en volume (étape de stéréologie, 3D). Actuellement, le tamisage (ou plus généralement le criblage) est le moyen le plus utilisé pour la mesure de la granulométrie des roches fragmentées. Il constitue la référence actuelle de la mesure. En conséquence, toute mesure établie par traitement d'images sera validée sur la base des résultats du tamisage. En ce qui concerne l'étape d'extraction des contours des fragments, le problème majeur qui se pose est celui du filtrage correct du bruit présent dans l'image. Dans un premier temps, de nouveaux outils de filtrage, basés sur les transformations morphologiques résiduelles, assez puissants et adaptés au cas des images de fragments de roches sont introduits et évalués. Dans un second temps, les surfaces des fragments sont extraites grâce une segmentation de l'image, basée sur une ligne de partage des eaux contrôlée par les marqueurs extraits des filtrages. La robustesse et l'automatisation de la démarche sont validées sur plusieurs cas d'images de fragments de roches. Le second problème abordé dans cette recherche est celui de la reconstruction de la courbe granulométrique en volume à partir des surfaces extraites par traitement d'images. Afin d'éviter l'occurrence de nombreux biais liés à cette étape, nous proposons un découpage en deux sous-problèmes, et ce, en fonction de la disposition des matériaux analysés (tas abattu, camion, convoyeur à bande) : - dans le cas de faible recouvrement et chevauchement : un modèle expérimental de reconstruction volumique mettant en jeu les données des refus matériels (surface et volumes), et basé d'emblée sur les résultats de référence est développé. Les deux lois des tailles et des épaisseurs (lois de reconstruction) permettant d'attribuer une taille et un volume aux surfaces sont validées expérimentalement. - dans le cas complexe de présence de masquage entre fragments : nous commençons par émettre des hypothèses essentielles à l'adaptation de la théorie des modèles de structures aléatoires à notre cas de fragments de roches. L'analyse des limites d'une application directe du modèle aléatoire de feuilles mortes (hypothèse du schéma booléen) nous a amené à élaborer une nouvelle méthode d'acquisition basée sur une incidence à éclairement variable. S'inspirant de la technique du «shape-from-shading», elle permet d'obtenir une information supplémentaire sur le recouvrement (ombre portée entre fragments) pour l'application de la statistique des grains intacts. Enfin, les résultats obtenus dans cette recherche pour les fragments en vrac mais aussi pour d'autres types d'images d'éléments granulaires, nous ont permis d'envisager d'ores et déjà une valorisation aussi bien auprès de l'industrie minérale et aussi dans d'autres domaines tels que l'agroalimentaire, pharmaceutique, cimenteries,...
79

Architecture à base de situations pour le traitement des quiproquos dans l'exécution adaptative d'applications interactives / Situation-based architecture for misunderstanding management in the adaptive execution of interactive applications

Pham, Phuong Thao 04 July 2013 (has links)
Nos travaux s’inscrivent dans le cadre de la définition d’architectures pour la conception des applications informatiques se basant sur l’interactivité avec l’utilisateur. Nous nous plaçons dans un contexte de système médiateur, dans lequel les interactions sont traitées par le système afin de maitriser au mieux l’exécution de l’application interactive. Un point-clé de notre approche est l’hypothèse que le concepteur conçoit son application interactive en fonction d’un présupposé qu’il a sur l’utilisateur (compétence, comportement...). Afin de maintenir la cohérence de l’exécution vis-à-vis du comportement de l’utilisateur pour l’activité en cours, le mécanisme d’adaptation doit alors prendre en compte la logique perçue et interprétée de l’utilisateur. Le principe d’exécution adaptative permet donc à un système interactif d’ajuster sa logique d’exécution en fonction de l’état, des comportements, des réactions et des capacités de l’utilisateur. Ainsi, le point de départ de l’exécution adaptative est la définition des propriétés caractérisant l’état de l’utilisateur et/ou de son environnement, et l’observation ou la capture de cet état, qui permettra par la suite de prendre une décision sur la poursuite du déroulement du scénario. Cependant, cette décision d’adaptation peut être influencée ou entravée par la distance entre l’état observé et l’état réel de l’utilisateur, ainsi que par la distance entre l’état observé et l’état prédit (espéré) par le système. Les principaux obstacles à l’exécution adaptative dans un système interactif sont de 3 types : les ambiguïtés, les incohérences et les quiproquos. Ils peuvent survenir à chaque fois qu’un ensemble d’acteurs du système considéré interagissent, partagent des connaissances globales et gèrent leurs connaissances locales. Un quiproquo se produit lorsque deux acteurs ont des connaissances incohérentes dans leurs visions locales et les utilisent pendant leurs interactions ; cela peut entraîner une déviation de ces interactions. L’ambiguïté causant possiblement des mauvaises perceptions est une des origines de quiproquo. Les ambiguïtés et les quiproquos sont des entraves pouvant entrainer des conséquences graves pour le système, tel que la déviance du scénario, la propagation des quiproquos, l’interruption des interactions, la perte de motivation des utilisateurs... Ils diminuent à la fois la qualité de l’adaptation et la pertinence de l’interaction. La question principale à laquelle veulent répondre nos travaux est : comment peut-on gérer les quiproquos entre les acteurs du système lors de l’exécution, afin d’améliorer l’adaptativité dans les applications interactives ? Le principe de notre solution est de proposer un gabarit de conception et d’organisation des interactions ainsi qu’un gabarit de mécanisme de gestion de cohérence, que les concepteurs d’une application interactive pourront reprendre comme support pour développer leurs propres algorithmes de détection ou de correction. Ce modèle d’architecture doit être générique et réutilisable, les mécanismes doivent être transparents et préserver les propriétés importantes des systèmes interactifs. Pour atteindre cet objectif, notre recherche s’est divisée en trois points : proposer un cadre méthodologique à base de la notion de « situation » pour la conception des applications interactives, pour confiner les interactions et suivre les parcours d’actions de chaque acteur, afin de contrôler l’utilisation des ressources et assurer la cohérence des visions locales ; proposer une architecture robuste à base d’agents avec la surcharge des composants spécifiques en tant qu’infrastructure des systèmes interactifs adaptatifs ; enfin, transférer des techniques du domaine de la sûreté de fonctionnement et de la tolérance aux fautes, vers le domaine de l’interactivité et l’adaptativité pour traiter les quiproquos. / Our works focus on defining an architectural model for interactivity-based computer applications. The research context is placed in the mediator systems where the interactions are treated by the system itself, and in the scenarized applications where its execution is considered as a scenario. This aims to manage at best the interactive application execution. The observation and adaptation are key points of our approach where the designer develops his interactive application according to the presuppositions about users (behaviour, skills...). To maintain an execution consistence towards user’s behaviour in current activities, the adaptation mechanism has to take into account the perceived and interpreted user’s logic. That allows the system to adjust its execution logic to user’s state, behaviour, reactions and capacities. Hence, the starting point of adaptive execution is to define a set of proprieties characterising user’s state and his environment of which the observation permits thereafter to make decisions about the future scenario continuity. However, this decision can be influenced or hampered by the difference distance between the observed state and the real state of user, also the distance between the observed state and the expected one by the system. The principal obstacles against the adaptation and interactions are : the ambiguity, the inconsistency, and the misunderstanding. They can occur when the participant actors interact, share global data, and manage the local knowledge contained in their local visions at the same time. A misunderstanding in interaction arises during actors’ interactions using the inconsistent data in their local visions that can impact badly on interaction. The ambiguity causing possibly the wrong perceptions is one of the principal misunderstanding origines. Theses obstacles lead to serious consequences for the system and application such as scenario deviation, misunderstanding propagation, interaction interruption, user’s motivation lost...They decrease the adaptation quality and interaction pertinence. Hence, the principal question of this thesis is : how can we handle the misunderstanding in interactions between the actors during system execution in order to improve adaptability in the interactive applications ? Our solution principle is to propose a model for interaction designing and organizing, together with a model for consistency handling mechanisms that application designers can employ as a necessary support to install his own detection or correction algorithms. These models have to be generic, reusable to be applied in different types of application. The consistency managements have to be transparent to users, and preserve important properties of interactive systems. To attain this objective, our works follow three major points : propose a situation-based methodological model for interactive application designing to confine a sequence of interactions into a situation with the constraints of context and resource utilisation. This structuration into situations propose a robust system architecture with additional specific components that ensure misunderstanding in interaction detection and management. Integrate the adaptive treatment mechanisms to the dynamic system’s execution through the proposed situation-based architectural model. They are inspired and adapted from fault-tolerance techniques in dependability domain.
80

Essais sur le processus de défaillance des entreprises en Tunisie : déterminants, recouvrements et spécificités institutionnelles / Essays on Tunisian bankruptcy process : determinants, recovery and institutional specificities

Letaief, Aziza 15 December 2014 (has links)
Cette thèse porte sur le processus de défaillance des entreprises en Tunisie. L’objectif est d’étudier le sujet d’un point de vue, à la fois, macroéconomique, microéconomique et juridique. Le travail est précédé d’une revue de la littérature axée sur les principaux intervenants dans le processus de faillite : les débiteurs, les créanciers et la législation en matière de faillite.La première partie propose une synthèse des résultats de nombreux travaux de recherche se rapportant, d’une part, aux différentes stratégies fixées par les débiteurs et les créanciers en vue de protéger leurs propres intérêts et d’autre part, à l’efficacité des procédures collectives dans la prévention des éventuelles utilisations opportunistes de la loi. Dans un second temps, la thèse traite le sujet d’un point de vue macroéconomique en cherchant à déterminer l’effet des fluctuations macroéconomiques sur le taux de défaillance en Tunisie sur la période allant de 1997 à 2010. Des variables spécifiques au cas tunisien et exprimant au mieux l’importance des secteurs de l’industrie et du tourisme dans l’économie tunisienne ont été considérées dans le modèle en plus des variables communément utilisées dans la littérature et qui ont prouvé leur rôle relativement significatif dans l’explication des taux de défaillance.La troisième partie de la thèse se concentre sur le niveau d’efficacité des procédures collectives tunisiennes dans la résolution du problème de défaut de paiement. Son efficacité est étudiée de point de vue : i) création de valeur et ce en termes de recouvrement total des créanciers à travers la maximisation de la valeur de l’entreprise défaillante, et ii) recouvrement des créanciers sécurisés. L’intérêt particulier porté sur la classe des créanciers sécurisés (notamment les banques) est justifié par l’importance du secteur bancaire dans le financement des entreprises en Tunisie et par conséquent dans le développement de l’économie tunisienne.La dernière partie de la thèse propose une analyse approfondie de la loi de faillite tunisienne dans le cadre d’une étude comparative avec 18 autres pays européens et non européens.A travers une approche « Law and Finance », dix indices juridiques ont été construits pour « mesurer » dix fonctions de Droit de faillite. Ensuite, des analyses univariée et multivariée ont été menées pour dégager les points de similarité ou de disparité entre les différentes lois de faillite. / This thesis focuses on the Tunisian bankruptcy process. The objective is to treat the subject from a macroeconomic, microeconomic and legal point of view. The work is preceded by a literature review focused on the main actors in the bankruptcy process: debtors, creditors and bankruptcy law. The first part provides a summary of many research results relating on the one hand, to the different strategies set by debtors and creditors to protect their own interests and on the other hand to the effectiveness of the procedures in preventing any opportunistic uses of the law. In the second part, we seek to determine the effect of macroeconomic fluctuations on the failure rate of businesses in Tunisia over the period 1997-2010. The selected variables are those that have been frequently used in the literature and that showed their significant impact onto the rate of corporate failure. Other original variables, more specific to the Tunisian case were considered to account for the importance of industry and tourism sectors in the Tunisian economy. The third part of this thesis focuses on the efficiency of bankruptcy procedures in Tunisia, a country characterized by the importance of its banking sector. We gathered original and unique information on Tunisian firms that went bankrupt between 1995-2009. We find that the Tunisian reorganization procedures are able to generate substantial recoveries, but those are mainly captured by the preferential claims (employees and public claims). This is coherent with the authorities’ willingness to improve social protection, but this raises concerns as the Tunisian firms are mainly financed by bankers. Our analysis shows that the secured creditors are poorly protected under bankruptcy: they rank almost last in the priority order of repayment, and their recovery rate is similar to one of the unsecured creditors. We also find that the rather high level of recovery rate is mainly attributable to the reorganization procedures. We finally find that the court’s choice between reorganization and liquidation is not influenced by the structure of claims. Thus, in Tunisia, the creditors are losing hand once bankruptcy is triggered.To better understand the characteristics of Tunisian bankruptcy procedures, the last part of the thesis offers a comparative study of Tunisian bankruptcy law with 18 other European and non-European countries. Ten legal indexes were constructed through "Law and Finance" approach to "measure" ten functions of bankruptcy law.Univariate and multivariate analyzes were conducted to identify the similarity or disparity points between the various bankruptcy laws.

Page generated in 0.0466 seconds