• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 40
  • 15
  • 5
  • 1
  • Tagged with
  • 62
  • 38
  • 38
  • 24
  • 20
  • 17
  • 17
  • 15
  • 15
  • 14
  • 12
  • 12
  • 12
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Méthodes de séparation aveugle de sources et application à la télédétection spatiale

Karoui, Moussa Sofiane 17 December 2012 (has links) (PDF)
Cette thèse concerne la séparation aveugle de sources, qui consiste à estimer un ensemble de signaux sources inconnus à partir d'un ensemble de signaux observés qui sont des mélanges à paramètres inconnus de ces signaux sources. C'est dans ce cadre que le travail de recherche de cette thèse concerne le développement et l'utilisation de méthodes linéaires innovantes de séparation de sources pour des applications en imagerie de télédétection spatiale. Des méthodes de séparation de sources sont utilisées pour prétraiter une image multispectrale en vue d'une classification supervisée de ses pixels. Deux nouvelles méthodes hybrides non-supervisées, baptisées 2D-Corr-NLS et 2D-Corr-NMF, sont proposées pour l'extraction de cartes d'abondances à partir d'une image multispectrale contenant des pixels purs. Ces deux méthodes combinent l'analyse en composantes parcimonieuses, le clustering et les méthodes basées sur les contraintes de non-négativité. Une nouvelle méthode non-supervisée, baptisée 2D-VM, est proposée pour l'extraction de spectres à partir d'une image hyperspectrale contenant des pixels purs. Cette méthode est basée sur l'analyse en composantes parcimonieuses. Enfin, une nouvelle méthode est proposée pour l'extraction de spectres à partir d'une image hyperspectrale ne contenant pas de pixels purs, combinée avec une image multispectrale, de très haute résolution spatiale, contenant des pixels purs. Cette méthode est fondée sur la factorisation en matrices non-négatives couplée avec les moindres carrés non-négatifs. Comparées à des méthodes de la littérature, d'excellents résultats sont obtenus par les approches méthodologiques proposées.
42

Inégalité, mobilité et hétérogénéité sur le marché du travail : Contribution Empiriques et Méthodiques

Bonhomme, Stéphane 23 May 2006 (has links) (PDF)
Ce travail rassemble quatre essais consacrés à l'étude de l'hétérogénéité et des dynamiques individuelles sur le marché du travail. Le premier chapitre met en évidence le lien entre mobilité (inertie) et le degré de persistance des inégalités. Nous employons une méthode statistique simple et originale pour étudier les trajectoires individuelles de salaires, et l'appliquons à des données françaises couvrant la période 1990-2002. Nous trouvons que la récession du début des années 1990 a été associée à une augmentation des inégalités longitudinales.<br />Dans le deuxième chapitre nous étudions l'effet de la mobilité entre emplois sur les corrélations entre salaires et caractéristiques non salariales. Dans notre modèle, de fortes préférences pour ces caractéristiques ne se traduisent pas nécessairement en corrélations négatives si les frictions de mobilité sont importantes. Sur données européennes, nous estimons de fortes préférences pour certaines caractéristiques telles que le type de travail ou la sécurité de l'emploi, ainsi que des différentiels de salaires très faibles entre niveaux d'aménités.<br />Les chapitres 3 et 4 introduisent une méthode de modélisation de l'hétérogénéité inobservée : l'analyse en composantes indépendantes. Celle-ci diffère de l'analyse en composantes principales en ce que les facteurs ne sont pas supposés simplement non corrélés, mais statistiquement indépendants. Cette hypothèse permet d'identifier les facteurs de manière non ambigüe. Nous appliquons notre méthode à des données de salaires de l'éducation pour l'année 1995 en France. Nos résultats suggèrent une relation complexe et multidimensionnelle entre le niveau d'étude et son rendement sur le marché du travail.
43

Analyse en composantes indépendantes avec une matrice de mélange éparse

Billette, Marc-Olivier 06 1900 (has links)
L'analyse en composantes indépendantes (ACI) est une méthode d'analyse statistique qui consiste à exprimer les données observées (mélanges de sources) en une transformation linéaire de variables latentes (sources) supposées non gaussiennes et mutuellement indépendantes. Dans certaines applications, on suppose que les mélanges de sources peuvent être groupés de façon à ce que ceux appartenant au même groupe soient fonction des mêmes sources. Ceci implique que les coefficients de chacune des colonnes de la matrice de mélange peuvent être regroupés selon ces mêmes groupes et que tous les coefficients de certains de ces groupes soient nuls. En d'autres mots, on suppose que la matrice de mélange est éparse par groupe. Cette hypothèse facilite l'interprétation et améliore la précision du modèle d'ACI. Dans cette optique, nous proposons de résoudre le problème d'ACI avec une matrice de mélange éparse par groupe à l'aide d'une méthode basée sur le LASSO par groupe adaptatif, lequel pénalise la norme 1 des groupes de coefficients avec des poids adaptatifs. Dans ce mémoire, nous soulignons l'utilité de notre méthode lors d'applications en imagerie cérébrale, plus précisément en imagerie par résonance magnétique. Lors de simulations, nous illustrons par un exemple l'efficacité de notre méthode à réduire vers zéro les groupes de coefficients non-significatifs au sein de la matrice de mélange. Nous montrons aussi que la précision de la méthode proposée est supérieure à celle de l'estimateur du maximum de la vraisemblance pénalisée par le LASSO adaptatif dans le cas où la matrice de mélange est éparse par groupe. / Independent component analysis (ICA) is a method of statistical analysis where the main goal is to express the observed data (mixtures) in a linear transformation of latent variables (sources) believed to be non-Gaussian and mutually independent. In some applications, the mixtures can be grouped so that the mixtures belonging to the same group are function of the same sources. This implies that the coefficients of each column of the mixing matrix can be grouped according to these same groups and that all the coefficients of some of these groups are zero. In other words, we suppose that the mixing matrix is sparse per group. This assumption facilitates the interpretation and improves the accuracy of the ICA model. In this context, we propose to solve the problem of ICA with a sparse group mixing matrix by a method based on the adaptive group LASSO. The latter penalizes the 1-norm of the groups of coefficients with adaptive weights. In this thesis, we point out the utility of our method in applications in brain imaging, specifically in magnetic resonance imaging. Through simulations, we illustrate with an example the effectiveness of our method to reduce to zero the non-significant groups of coefficients within the mixing matrix. We also show that the accuracy of the proposed method is greater than the one of the maximum likelihood estimator with an adaptive LASSO penalization in the case where the mixing matrix is sparse per group.
44

Chaînes de Markov cachées et séparation non supervisée de sources

RAFI, Selwa 11 June 2012 (has links) (PDF)
Le problème de la restauration est rencontré dans domaines très variés notamment en traitement de signal et de l'image. Il correspond à la récupération des données originales à partir de données observées. Dans le cas de données multidimensionnelles, la résolution de ce problème peut se faire par différentes approches selon la nature des données, l'opérateur de transformation et la présence ou non de bruit. Dans ce travail, nous avons traité ce problème, d'une part, dans le cas des données discrètes en présence de bruit. Dans ce cas, le problème de restauration est analogue à celui de la segmentation. Nous avons alors exploité les modélisations dites chaînes de Markov couples et triplets qui généralisent les chaînes de Markov cachées. L'intérêt de ces modèles réside en la possibilité de généraliser la méthode de calcul de la probabilité à posteriori, ce qui permet une segmentation bayésienne. Nous avons considéré ces méthodes pour des observations bi-dimensionnelles et nous avons appliqué les algorithmes pour une séparation sur des documents issus de manuscrits scannés dans lesquels les textes des deux faces d'une feuille se mélangeaient. D'autre part, nous avons attaqué le problème de la restauration dans un contexte de séparation aveugle de sources. Une méthode classique en séparation aveugle de sources, connue sous l'appellation "Analyse en Composantes Indépendantes" (ACI), nécessite l'hypothèse d'indépendance statistique des sources. Dans des situations réelles, cette hypothèse n'est pas toujours vérifiée. Par conséquent, nous avons étudié une extension du modèle ACI dans le cas où les sources peuvent être statistiquement dépendantes. Pour ce faire, nous avons introduit un processus latent qui gouverne la dépendance et/ou l'indépendance des sources. Le modèle que nous proposons combine un modèle de mélange linéaire instantané tel que celui donné par ACI et un modèle probabiliste sur les sources avec variables cachées. Dans ce cadre, nous montrons comment la technique d'Estimation Conditionnelle Itérative permet d'affaiblir l'hypothèse usuelle d'indépendance en une hypothèse d'indépendance conditionnelle
45

Imagerie des faisceaux de fibres et des réseaux fonctionnels du cerveau : application à l'étude du syndrome de Gilles de la Tourette

Malherbe, Caroline 28 March 2012 (has links) (PDF)
L'objectif de cette thèse est d'identifier et caractériser les boucles anatomiques et fonctionnelles cortico-sous-corticales chez l'Homme, à partir de données d'imagerie par résonance magnétique fonctionnelle (IRMf) au repos et de diffusion. Une boucle est un ensemble de régions corticales, sous-corticales et cérébelleuses, qui interagissent afin d'effectuer ou de préparer une tâche.Le premier axe de ce travail vise à identifier les réseaux fonctionnels cortico-sous-corticaux en IRMf au repos. Nous proposons une méthode statistique robuste séparant l'analyse corticale de l'analyse sous-corticale. Une analyse en composantes indépendantes spatiales est d'abord réalisée individuellement sur les régions corticales, et suivie d'une classification hiérarchique. Les régions sous-corticales associées sont ensuite extraites par un modèle linéaire général dont les régresseurs comportent la dynamique des régions corticales, suivi d'une analyse de groupe à effets aléatoires. La méthode est validée sur deux jeux de données différents. Un atlas immunohistochimique des structures sous-corticales permet ensuite de déterminer la fonction sensorimotrice, associative ou limbique des réseaux obtenus. Nous montrons enfin que l'anatomie est un support pour la fonction chez des sujets sains.Le dernier axe étudie le syndrome de Gilles de la Tourette, qu'on pense être dû à un dysfonctionnement des boucles cortico-sous-corticales. Nous caractérisons d'abord les boucles cortico-sous-corticales fonctionnelles grâce à des métriques d'intégration et de théorie des graphes, et des différences en termes de connectivité sont mises en évidence entre patients adultes et volontaires sains. Nous montrons également que les boucles cortico-sous-corticales fonctionnelles chez les patients sont soutenues par l'anatomie sous-jacente.
46

Détection et localisation tridimensionnelle par stéréovision d’objets en mouvement dans des environnements complexes : application aux passages à niveau / Detection and 3D localization of moving and stationary obstacles by stereo vision in complex environments : application at level crossings

Fakhfakh, Nizar 14 June 2011 (has links)
La sécurité des personnes et des équipements est un élément capital dans le domaine des transports routiers et ferroviaires. Depuis quelques années, les Passages à Niveau (PN) ont fait l’objet de davantage d'attention afin d'accroître la sécurité des usagers sur cette portion route/rail considérée comme dangereuse. Nous proposons dans cette thèse un système de vision stéréoscopique pour la détection automatique des situations dangereuses. Un tel système permet la détection et la localisation d'obstacles sur ou autour du PN. Le système de vision proposé est composé de deux caméras supervisant la zone de croisement. Nous avons développé des algorithmes permettant à la fois la détection d'objets, tels que des piétons ou des véhicules, et la localisation 3D de ces derniers. L'algorithme de détection d'obstacles se base sur l'Analyse en Composantes Indépendantes et la propagation de croyance spatio-temporelle. L'algorithme de localisation tridimensionnelle exploite les avantages des méthodes locales et globales, et est composé de trois étapes : la première consiste à estimer une carte de disparité à partir d'une fonction de vraisemblance basée sur les méthodes locales. La deuxième étape permet d'identifier les pixels bien mis en correspondance ayant des mesures de confiances élevées. Ce sous-ensemble de pixels est le point de départ de la troisième étape qui consiste à ré-estimer les disparités du reste des pixels par propagation de croyance sélective. Le mouvement est introduit comme une contrainte dans l'algorithme de localisation 3D permettant l'amélioration de la précision de localisation et l'accélération du temps de traitement. / Within the past years, railways undertakings became interested in the assessment of Level Crossings (LC) safety. We propose in this thesis an Automatic Video-Surveillance system (AVS) at LC for an automatic detection of specific events. The system allows automatically detecting and 3D localizing the presence of one or more obstacles which are motionless at the level crossing. Our research aims at developing an AVS using the passive stereo vision principles. The proposed imaging system uses two cameras to detect and localize any kind of object lying on a railway level crossing. The cameras are placed so that the dangerous zones are well (fully) monitored. The system supervises and estimates automatically the critical situations by detecting objects in the hazardous zone defined as the crossing zone of a railway line by a road or path. The AVS system is used to monitor dynamic scenes where interactions take place among objects of interest (people or vehicles). After a classical image grabbing and digitizing step, the processing is composed of the two following modules: moving and stationary objects detection and 3-D localization. The developed stereo matching algorithm stems from an inference principle based on belief propagation and energy minimization. It takes into account the advantages of local methods for reducing the complexity of the inference step achieved by the belief propagation technique which leads to an improvement in the quality of results. The motion detection module is considered as a constraint which allows improving and speeding up the 3D localization algorithm.
47

Séparation de Sources Dans des Mélanges non-Lineaires / Blind Source Separation in Nonlinear Mixtures

Ehsandoust, Bahram 30 April 2018 (has links)
La séparation aveugle de sources aveugle (BSS) est une technique d’estimation des différents signaux observés au travers de leurs mélanges à l’aide de plusieurs capteurs, lorsque le mélange et les signaux sont inconnus. Bien qu’il ait été démontré mathématiquement que pour des mélanges linéaires, sous des conditions faibles, des sources mutuellement indépendantes peuvent être estimées, il n’existe dans de résultats théoriques généraux dans le cas de mélanges non-linéaires. La littérature sur ce sujet est limitée à des résultats concernant des mélanges non linéaires spécifiques.Dans la présente étude, le problème est abordé en utilisant une nouvelle approche utilisant l’information temporelle des signaux. L’idée originale conduisant à ce résultat, est d’étudier le problème de mélanges linéaires, mais variant dans le temps, déduit du problème non linéaire initial par dérivation. Il est démontré que les contre-exemples déjà présentés, démontrant l’inefficacité de l’analyse par composants indépendants (ACI) pour les mélanges non-linéaires, perdent leur validité, considérant l’indépendance au sens des processus stochastiques, au lieu de l’indépendance au sens des variables aléatoires. Sur la base de cette approche, de bons résultats théoriques et des développements algorithmiques sont fournis. Bien que ces réalisations ne soient pas considérées comme une preuve mathématique de la séparabilité des mélanges non-linéaires, il est démontré que, compte tenu de quelques hypothèses satisfaites dans la plupart des applications pratiques, elles sont séparables.De plus, les BSS non-linéaires pour deux ensembles utiles de signaux sources sont également traités, lorsque les sources sont (1) spatialement parcimonieuses, ou (2) des processus Gaussiens. Des méthodes BSS particulières sont proposées pour ces deux cas, dont chacun a été largement étudié dans la littérature qui correspond à des propriétés réalistes pour de nombreuses applications pratiques.Dans le cas de processus Gaussiens, il est démontré que toutes les applications non-linéaires ne peuvent pas préserver la gaussianité de l’entrée, cependant, si on restreint l’étude aux fonctions polynomiales, la seule fonction préservant le caractère gaussiens des processus (signaux) est la fonction linéaire. Cette idée est utilisée pour proposer un algorithme de linéarisation qui, en cascade par une méthode BSS linéaire classique, sépare les mélanges polynomiaux de processus Gaussiens.En ce qui concerne les sources parcimonieuses, on montre qu’elles constituent des variétés distinctes dans l’espaces des observations et peuvent être séparées une fois que les variétés sont apprises. À cette fin, plusieurs problèmes d’apprentissage multiple ont été généralement étudiés, dont les résultats ne se limitent pas au cadre proposé du SRS et peuvent être utilisés dans d’autres domaines nécessitant un problème similaire. / Blind Source Separation (BSS) is a technique for estimating individual source components from their mixtures at multiple sensors, where the mixing model is unknown. Although it has been mathematically shown that for linear mixtures, under mild conditions, mutually independent sources can be reconstructed up to accepted ambiguities, there is not such theoretical basis for general nonlinear models. This is why there are relatively few results in the literature in this regard in the recent decades, which are focused on specific structured nonlinearities.In the present study, the problem is tackled using a novel approach utilizing temporal information of the signals. The original idea followed in this purpose is to study a linear time-varying source separation problem deduced from the initial nonlinear problem by derivations. It is shown that already-proposed counter-examples showing inefficiency of Independent Component Analysis (ICA) for nonlinear mixtures, loose their validity, considering independence in the sense of stochastic processes instead of simple random variables. Based on this approach, both nice theoretical results and algorithmic developments are provided. Even though these achievements are not claimed to be a mathematical proof for the separability of nonlinear mixtures, it is shown that given a few assumptions, which are satisfied in most practical applications, they are separable.Moreover, nonlinear BSS for two useful sets of source signals is also addressed: (1) spatially sparse sources and (2) Gaussian processes. Distinct BSS methods are proposed for these two cases, each of which has been widely studied in the literature and has been shown to be quite beneficial in modeling many practical applications.Concerning Gaussian processes, it is demonstrated that not all nonlinear mappings can preserve Gaussianity of the input. For example being restricted to polynomial functions, the only Gaussianity-preserving function is linear. This idea is utilized for proposing a linearizing algorithm which, cascaded by a conventional linear BSS method, separates polynomial mixturesof Gaussian processes.Concerning spatially sparse sources, it is shown that spatially sparsesources make manifolds in the observations space, and can be separated once the manifolds are clustered and learned. For this purpose, multiple manifold learning problem has been generally studied, whose results are not limited to the proposed BSS framework and can be employed in other topics requiring a similar issue.
48

Top-down and bottom-up excursions beyond the standard model : the example of left-right symmetries in supersymmetry / Excursions « top-down » et « bottom-up » au-delà du modèle standard : l'exemple des symétries gauches-droites en supersymétrie

Alloul, Adam 20 September 2013 (has links)
Une très grande effervescence secoue le monde de la physique des particules depuis le lancement du grand collisionneur de hadrons (LHC) au CERN. Cette énorme machine capable de faire se collisionner des protons à des énergies égales à 14 TeV promet de lever le voile sur la physique régissant les interactions à ces échelles d’énergies. Ces résultats sont d’autant plus attendus que l’on a acquis la certitude que le Modèle Standard de la physique des particules est incomplet et devrait, en fait, être interprété comme la théorie effective d’une théorie plus fondamentale. Toutefois, depuis le lancement des expériences au LHC avec des énergies de 7 puis de 8 TeV aucun signe de nouvelle physique n’a été découvert. Par contre, un énorme bond en avant a été franchi avec la découverte d’une particule scalaire de masse égale à 125 GeV et dont les propriétés sont relativement proches de celles du boson de Higgs telles que prédites par le Modèle Standard. C’est dans ce contexte de forte émulation internationale que mon travail de thèse s’est inscrit. Dans un premier temps, nous avons voulu explorer la phénoménologie associée au secteur des neutralinos et charginos du modèle supersymétrique symétrique gauche-droit. Cette étude peut être motivée par plusieurs raisons notamment le fait que leur caractère supersymétrique apporte une solution au problème dit de la hiérarchie mais implique aussi l’unification des constantes de jauge ainsi que l’explication de la matière noire. L’introduction de la symétrie entre les fermions gauchers et les fermions droitiers permet, quant à elle, d’expliquer naturellement, via le mécanisme dit de la balançoire, la petitesse de la masse des neutrinos mais aussi de répondre à plusieurs autres questions non solubles dans le cadre du Modèle Standard. Nous concentrant uniquement sur le secteur des charginos et neutralinos les plus légers, nous avons montré que ces modèles peuvent être facilement mis en évidence dans les évènements multi-leptoniques en ce sens que les signatures qu’ils induisent sont tr`es différentes comparées à celles du Modèle Standard et de sa version supersymétrique.[...] / The field of high-energy physics has been living a very exciting period of its history with the Large Hadron Collider (LHC) at CERN collecting data. Indeed, this enormous machine able to collide protons at a center of mass energy of 14 TeV promises to unveil the mystery around the physics at such energy scales. From the physicists side, the expectations are very strong as it isnowadays a certitude that the Standard Model of particle physics is incomplete and should, in fact, be interpreted as the effective theory of a more fundamental one. Unfortunately, the 7 and 8 TeV runs of the LHC did not provide any sign of new physics yet but there has been at least one major discovery in 2010, namely the discovery of a scalar particle with a mass of 125 GeV and whichproperties are very close to those of the Standard Model Higgs boson. Since then, many questions have come up as we now want to understand if it really is the Standard Model Higgs boson or if it exhibits any deviations. It is in this peculiar context that my research work was carried. In a first project, we, my supervisors, our collaborator and I, have wanted to explore thephenomenology associated with the neutralinos and charginos sector of the left-right symmetric supersymmetric model. Such an analysis can be motivated by several reasons such as the fact that the supersymmetric nature of these models provides a natural explanation for the infamous hierarchy problem, implies the unification of the gauge coupling constants at very high energy and provides a natural candidate for dark matter. In addition to these nice features, the left-right symmetry introduces a natural framework for explaining the smallness of neutrino masses but also helps in addressing several other unresolved issues in the Standard Model framework. Only focusing on the lightest charginos and neutralinos decaying into one or more light leptons, we have shown in our study that these models can be easily discovered in multi-leptonic final states as theylead to signatures very different from those induced by the Standard Model or its supersymmetric version.[...]
49

Principe de proportionnalité et droit de la concurrence / Principle of proportionality and competition law

Ottoni, Sibilla 10 November 2014 (has links)
Le contrôle juridictionnel sur les décisions des autorités de concurrence présente une intensité fortement changeante. Cela a engendré un effort de systématisation théorique et a demandé la solution d’une série de questions médianes. La nature technique de la matière économique a en effet justifié un modèle institutionnel spécifique (celui d’autorité administrative indépendante), un certain type de norme (par concepts juridiques indéterminés), une forme particulière de pouvoir discrétionnaire (qu’on peut définir mixte : au même temps pur et technique). Sur la base de tous ces éléments, on a individué l’ampleur idéale du contrôle. Le premier élément, le caractère indépendant des autorités, impose de se questionner sur les limites entre administration en formes contentieuses et juridiction, mais aussi sur les limites entre administration et politique. Le deuxième élément, relatif à la structure de la norme, a engendré une réflexion sur l’exigence que l’administration puisse intégrer la prescription légale, à l’acte de son application, de façon qu’elle participe en quelque sorte à la définition des conditions d’exercice de son propre pouvoir. Le troisième des éléments rappelés, la nature mixte du pouvoir discrétionnaire, a permis de redéfinir les raisons de l’analogie du contrôle juridictionnel sur l’opportunité et de celui sur la pluralité des solutions techniques . L’instrument utilisé pour mener cette analyse est le principe de proportionnalité, instrument d’action de l’administration mais aussi instrument de contrôle du juge, qui a permis de relever l’affinité entre les formes de l’action administrative et forme du contrôle qui sont à l’origine des incertitudes relevées. / Judicial review of antitrust authorities’ decisions shows as extremely variable. This justified an effort of theoretical explanation and demanded the elucidation of several intermediate questions. The technical nature of the economic subject accounts for a specific institutional model (the independent agencies one), a given type of norms (through standards and indeterminate concepts), a peculiar form of discretionary power (defined mixt: both pure an technical). Considering all these elements, we defined the ideal reach of judicial review. The first element, the independent nature of authorities, dictates to wonder on the boundaries between confrontational administration and trial, but also on the boundaries between administration and politics. The second element, related to the structure of the norm, provokes a reflection on the necessity that the administration completes the legal prescription while applying it, somehow participating to the definition of her own power’s legitimacy requirements. The third element recalled, the mixt nature of discretionary power, led to redefine the reasons of the analogy between jurisdictional control on opportunity and on technical administrative evaluations. The instrument used to carry out the described analysis is the principle of proportionality, tool of administrative action but also instrument of judicial review, that permitted to reveal the affinity between administrative and jurisdictional paradigms that founds the observed uncertainties.
50

La coopération entre les autorités de régulation en Europe (communications électroniques, énergie) / The cooperation among regulatory authorities in Europe (electronic communications, energy)

Vlachou, Charikleia 18 November 2014 (has links)
La coopération entre les autorités de régulation en matière de communications électroniques et d’énergie s’inscrit dans le contexte de mutation de l’administration européenne qui est intervenue au fil des deux dernières décennies. Son architecture institutionnelle est marquée par la forte européanisation des autorités de régulation,laquelle est le résultat de l’harmonisation opérée par le droit de l’Union européenne et de la diffusion de meilleures pratiques. La coopération entre les autorités de régulation se fonde néanmoins sur des principes juridiques flous en droit primaire. Elle est de plus marquée par l’ambigüité de la délégation des pouvoirs à l’échelle de l’Union européenne. Dans les deux secteurs étudiés, elle traduit l’hybridation des modèles de gouvernance que sont les « agences de l’Union européenne » et les « réseaux d’autorités », car elle a donné naissance à une « agence en réseau » puissante dans le domaine de l’énergie - l’ACRE- et à un « réseau agenciarisé » faible en matière de communications électroniques– l’ORECE.Pour assurer l’effectivité de l’ « Union de droit », les actes de ces organismes de l’Unioneuropéenne sont contrôlés par le juge de l’Union européenne, dont la saisine par lesparticuliers reste malheureusement difficile. Dans ce contexte, le Médiateur européen présente un potentiel fort en tant qu’instance de contrôle complémentaire. Quant au prétendu déficit démocratique souligné par les détracteurs de l’Union européenne, il est ici démenti car le Parlement européen assure un contrôle démocratique efficace sur les organismes étudiés. Si ses moyens de contrôle politique sont largement informels et méritent d’être approfondis, le contrôle qu’il exerce dans le cadre de la procédure de décharge budgétaire peut, quant à lui, déboucher sur une transformation de l’architecture institutionnelle des organismes étudiés. / The cooperation among regulatory authorities in the field of electronic communications and energy takes place against the background of the transformation of the european administration in the last two decades. Its institutional design bears the mark of the europeanisation of regulators through the harmonisation brought about by EU law and the diffusion of best practices. The cooperation among regulatory authorities is formalised on the basis of a primary law that is vague. It is also marked by ambiguity with regard to the delegation of pouvoirs on a European level. In the sectors of energy and electronic communications, it reflects the « hybrisation » of two models of governance, European agencies and networks, giving birth to a powerful « network agency » in the field of energy-the ACER- and a weak « agenciarised network » in the field of electronic communications- the BEREC. The control of the acts of these two organisms in a « Union of law » is ensured by the Cour of justice of the European Union which is, however, difficult to accessfor individuals. In this context, the European Ombudsman demonstrates a real potential as a complementary forum of control. Against a priori hypotheses with respect to the democratic deficit of the European Union, the European Parliament effectively ensures the democratic control of ACER and BEREC. Even if its means of political control are largelyinformal and should be better defined, the control it exercices in the context of the budgetary discharge procedure is capable of transforming the institutional design of the above mentioned organisms.

Page generated in 0.0809 seconds