Spelling suggestions: "subject:"3analyse dde connées"" "subject:"3analyse dde abonnées""
31 |
Liaisons entre plusieurs ensembles de variables et codage de données qualitativesSaporta, Gilbert 15 May 1975 (has links) (PDF)
Nous étudions des généralisations de l'analyse canonique à plusieurs ensembles de variables. On présente également des techniques d'analyse discriminante sur variables qualitatives via un codage optimal des catégories, ainsi qu'une technique directe de représentation des proximités entre tableaux avec les opérateurs d'Escoufier.
|
32 |
Méthodes statistiques et informatiques pour le traitement des données manquantesGu Co, Weila Vila 08 March 1997 (has links) (PDF)
Cette thèse est consacrée au traitement des données manquantes. Des méthodes descriptives (analyse en composantes principales, analyse des correspondances dont analyse homogène et la classification automatique) sont étudiées dans le cadre des données incomplètes. La seconde partie est consacrée à des problèmes de fusion de fichiers et analyses homogène y est introduite.
|
33 |
Analyse des données de l'expérience NEMO3 pour la recherche de la désintégration double bêta sans émission de neutrinos. Étude des biais systématiques du calorimètre et développements d'outils d'analyseHugon, Christophe 29 November 2012 (has links) (PDF)
L'expérience NEMO3 était dédiée à la recherche de la désintégration ββ0ν à l'aide de diverses sources d'isotopes de désintégration double bêta (principalement ¹ººMo, ⁸²Se, ¹¹⁶Cd et ¹³ºTe pour un total d'environ 10 kg). Le détecteur était localisé dans le Laboratoire souterrain de Modane, à mi-parcours du tunnel du Fréjus. Cette expérience a permis de démontrer que la technologie "tracko-calo" est très compétitive et a de plus offert de nouveaux résultats pour la recherche des désintégrations ββ2ν et ββ0ν. Par ailleurs, elle a ouvert la voie pour son successeur SuperNEMO, dont le but est d'atteindre 100 kg de ⁸²Se (pour une sensibilité de 10²⁶ années). Le but principal de cette thèse a été de mesurer le temps de demi-vie des désintégrations ββ2ν et ββ0ν du ¹ººMo vers les états excités 0₁⁺ du ¹ººRu à l'aide des données totales de NEMO3, avec de nouvelles méthodes d'analyse et un développement du programme d'analyse de la collaboration. Les résultats obtenus pour la désintégration ββ2ν du ¹ººMo vers l'état fondamental (gs) et excité (0₁⁺) du ¹ººRu sont T1/2(ββ2ν,gs)=(7,05±0,01(stat)±0,54(syst)).10¹⁸ ans et T1/2(ββ2ν,0₁⁺)=(6,15±1,1(stat)±0,78)).10²º ans. Ces résultats sont compatibles avec les résultats publiés par la collaboration. Quant à la désintégration ββ0ν(0₁⁺), ce travail permet d'obtenir un temps de demi-vie de T1/2(ββ0ν, 0₁⁺)>2,6.10²³ ans, améliorant significativement les derniers résultats publiés. De plus ces méthodes ont aussi permis de présenter un nouveau modèle de bruit de fond de l'expérience, plus exhaustif. Le second but de ce travail a été de mesurer les erreurs systématiques du calorimètre de NEMO3 dues, entre autres, à la longueur d'onde des systèmes d'étalonnage du détecteur. Ce travail a été réalisé notamment à l'aide d'un banc de test basé sur des DEL. Ce banc a aussi permis de contribuer au développement du calorimètre de SuperNEMO, particulièrement au travers de mesures de linéarité et de caractéristiques temporelles des PM destinés au démonstrateur de l'expérience.
|
34 |
Imagerie neutronique pour la fusion par confinement inertiel et imagerie optique moléculaireDelage, Olivier 07 December 2010 (has links) (PDF)
Les domaines scientifiques, nécessitant l'imagerie d'objets de petites dimensions (micrométriques voire nanométriques) et peu émissifs, sont de plus en plus nombreux (physique des plasmas, astrophysique, physique des matériaux, biotechnologies,...) et les challenges posés par l'étude de ces objets en font un axe de recherche et de développement en constante évolution. Le travail présenté dans ce document a un objectif double : présenter les spécificités de l'instrumentation associée à ce domaine de recherche ainsi que les facteurs susceptibles d'améliorer la précision des systèmes d'imagerie ; présenter les techniques numériques d'analyse de données et de reconstruction capables de restituer des résolutions spatiales en adéquation avec les dimensions de l'objet étudié. La similitude des algorithmes d'analyse de données et de reconstruction appliqués à la fusion par confinement inertielle et à l'imagerie moléculaire de fluorescence, deux domaines scientifiques dont les enjeux sont très différents, montre combien l'imagerie d'objets de petites dimensions est un domaine de recherche à la frontière d'un grand nombre de disciplines scientifiques
|
35 |
Impact d'un modèle de covariance d'erreur de prévision basé sur les fonctions de sensibilité dans un 3D-VARLupu, Cristina January 2006 (has links) (PDF)
Les fonctions de sensibilité dites a posteriori permettent de caractériser des corrections aux conditions initiales qui peuvent réduire significativement l'erreur de prévision à une échéance donnée (typiquement 24 ou 48 heures). L'erreur est ici définie par l'écart à une analyse de vérification et la fonction de sensibilité ne peut donc être calculée qu'a posteriori. De telles structures dépendent de la nature de l'écoulement et ne sont pas prises en compte dans le modèle de covariance d'erreur de prévision stationnaire utilisé dans un système d'assimilation de données variationnelle 3D (3D-Var) comme celui du Centre Météorologique Canadien (CMC). Pour remédier à ceci, Hello et Bouttier (2001) ont introduit une formulation différente des covariances d'erreur de prévision qui permet d'inclure les fonctions de structure basées sur des fonctions de sensibilité a priori définissant la structure de changements aux conditions initiales qui ont le plus d'impact sur une prévision d'échéance donnée. Dans ce cas, l'amplitude de cette correction est déterminée en s'ajustant aux observations disponibles. Dans ce projet, une formulation différente est proposée et comparée à celle de Hello et Bouttier (2001). L'algorithme, appelé 3D-Var adapté, est tout d'abord présenté et analysé dans le cadre plus simple d'une analyse variationnelle 1D (1D-Var) pour être ensuite introduit dans le 3D-Var du CMC. L'impact du changement apporté a été étudié en utilisant les fonctions de sensibilité a posteriori associées à une prévision manquée sur la côte est de l'Amérique du Nord. En mesurant globalement l'erreur de prévision, la fonction de sensibilité indique qu'il est nécessaire d'apporter des corrections à l'analyse sur différentes régions du globe. Pour le 3D-Var adapté, ceci conduit à une fonction de structure non localisée et l'amplitude de la correction est caractérisée par un seul paramètre défini par l'ensemble des observations disponibles. En comparant aux prévisions issues du 3D-Var opérationnel ou de l'analyse de sensibilité, la prévision issue de l'analyse du 3D-Var adapté est améliorée par rapport à celle du 3D-Var conventionel mais nettement moins que celle issue de l'analyse de sensibilité. Par contre, le 3D-Var adapté améliore l'ajustement de l'analyse aux observations alors que l'analyse de sensibilité le dégrade. En localisant la mesure de l'erreur de prévision sur la région correspondant au système météorologique du cas étudié sur la côte est de l'Amérique du Nord, la fonction de sensibilité est maintenant localisée sur une région mieux délimitée (dite région sensible). Il est également possible de varier la fenêtre temporelle utilisée pour définir la fonction de sensibilité. L'impact sur la qualité de l'analyse et des prévisions résultantes a été étudié autant pour l'analyse de sensibilité que pour le 3D-Var adapté. Les résultats montrent que la définition d'une fonction de structure appropriée pour un système d'assimilation vise à simultanément concorder aux observations disponibles et améliorer la qualité des prévisions. Les résultats obtenus montrent que l'utilisation des fonctions de sensibilité comme fonctions de structures n'est pas immédiate. Bien que limitées à un seul cas, nos expériences indiquent certaines pistes intéressantes pour définir des fonctions de sensibilité pouvant être utilisées comme fonctions de structures. Ces idées pourraient s'appliquer également aux fonctions de sensibilité a priori.
|
36 |
Contribution aux méthodes de classification non supervisée via des approches prétopologiques et d'agrégation d'opinionsBoubou, Mounzer 29 November 2007 (has links) (PDF)
Le travail de thèse a porté sur une réflexion relative aux méthodes de classification automatique des données pour lesquelles il est bien connu qu'un effet « méthode » existe. Après une première partie qui présente la problématique générale de l'analyse des données et propose un survey des méthodes de classification, les travaux originaux de la thèse sont exposés. Ils relèvent de trois approches interconnectées : une approche basée sur l'agrégation d'opinions, une approche prétopologique et une approche basée sur l'agrégation des préférences. Chacune de ces approches se fonde sur un paradigme différent et propose une nouvelle vision des techniques de classification permettant d'apporter éventuellement de l'information exogène dans la méthode.
|
37 |
Modélisation supervisée de données fonctionnelles par perceptron multi-couchesConan-Guez, Brieuc 18 December 2002 (has links) (PDF)
L'Analyse de Données Fonctionnelles est une extension de l'analyse de données traditionnelles à des individus décrits par des fonctions. Le travail présenté ici s'inscrit pleinement dans ce courant, et tente de faire la jonction entre le domaine de la statistique fonctionnelle, et celui des techniques "neuronales" classiques. L'extension du perceptron multi-couches (PMC) à des espaces fonctionnels, proposé dans ce travail, apporte une réponse naturelle au traitement d'individus de type fonctions. Deux approches distinctes sont ici présentées : une approche par traitement direct des fonctions d'entrée et une approche par projection sur une base topologique de l'espace fonctionnel considéré (méthode classique en Analyse de Données Fonctionnelles). Pour chacune de ces deux méthodes, on montre dans un premier temps que le modèle est un approximateur universel, i.e. que toute fonction continue définie sur un compact d'un espace fonctionnel peut être approchée arbitrairement bien par un PMC fonctionnel. Dans un deuxième temps, on s'intéresse aux propriétés de consistance de l'estimateur fonctionnel. L'originalité de ce résultat vient du fait que non seulement l'estimation s'effectue sur un nombre fini d'individus (les fonctions observées), mais que de plus chacune de ces fonctions n'est connue qu'en un nombre fini de points d'observation (discrétisation). Un point important à noter est que ce résultat s'appuie sur une modélisation aléatoire du design des fonctions d'entrée. Enfin, on montre que le modèle peut encore être adapté afin d'obtenir une réponse fonctionnelle, ce qui autorise le traitement de processus fonctionnels à temps discret. L'approximation universelle et la consistance de l'estimateur (dans le cas i.i.d) sont encore vérifiées.
|
38 |
Recherche du partenaire supersymétrique du quark Top dans sa désintégration en 3 corps au sein de l'expérience D0 auprès du TeVatron et calibration du calorimètre électromagnétique de D0.Mendes, Aurélien 02 October 2006 (has links) (PDF)
La supersymétrie semble être l'extension naturelle du Modèle Standard la plus naturelle. A basse énergie elle peut consister au Modèle Standard Supersymétrique Minimal (MSSM) qui ici est le cadre de la recherche du squark top, grâce à 350 pb-1 de données récoltées par l'expérience DØ lors du RunIIa du TeVatron. Nous avons sélectionné les évènements avec un électron, un muon, de l'énergie transverse manquante et des traces non isolées, signature de la désintégration du stop en trois corps ( ).<br /> En l'absence d'un excès significatif d'évènements de ce signal, les résultats ont été interprétés en terme de limites de section efficaces de production du stop permettant d'étendre la région d'exclusion dans l'espace des paramètres ( ) existante jusqu'à des masses de stop de 168 (140) GeV pour une masse de sneutrino de 50 (94) GeV.<br /><br /> En raison du rôle majeur du calorimètre électromagnétique dans beaucoup de recherches effectuées dans DØ, une calibration fine de celui-ci a été effectuée en utilisant des évènements avec des désintégrations , améliorant notablement la résolution de l'énergie mesurée
|
39 |
Analyse de texture et lissage optimal des images thermographiques par satelliteAlbuisson, Michel 06 January 1976 (has links) (PDF)
Des satellites d'observation de la terre acquièrent des images de températures des corps visibles depuis l'espace. L'étude de ces images requiert un traitement et ce travail analyse différentes méthodes statistiques, tant descriptives qu'analytiques, susceptibles d'aider dans l'interprétation et éventuellement l'amélioration des images. Les données traitées sont tout d'abord présentées et nous montrons comment des méthodes de type descriptif, comme les histogrammes, peuvent aider à la visualisation des images et offrir une classification simple des images. La texture de ces images est ensuite étudiée en utilisant le concept de fonction aléatoire à support dans R2 et par le biais de l'analyse des données, nous avons construit une méthode de segmentation d'images en zones de texture homogènes. Cette méthode est utilisée pour bâtir un algorithme de lissage du bruit de fond affectant les images. Cet algorithme est de type moyenne mobile optimale et est adaptatif car prenant en compte la texture locale. Tous les algorithmes exposés ont fait l'objet d'une implémentation sur calculateur et plusieurs exemples d'application sont proposés.
|
40 |
Modélisation et optimisation d'un centre d'appels téléphoniques : étude du processus d'arrivéeChannouf, Nabil January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
|
Page generated in 0.0503 seconds