• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 794
  • 252
  • 82
  • 13
  • 4
  • 4
  • 3
  • 2
  • 1
  • Tagged with
  • 1155
  • 251
  • 200
  • 161
  • 123
  • 93
  • 86
  • 81
  • 75
  • 70
  • 66
  • 65
  • 64
  • 62
  • 58
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Capteur d’humidité en Si poreux pour la fiabilité des systems in package

Ludurczak, Willy 03 November 2008 (has links)
La problématique de cette thèse est l’amélioration de la fiabilité des systèmes électroniques encapsulés, concernant l’herméticité et les perturbations causées par les infiltrations d’humidité. Le travail consiste en l’étude d’un capteur pour mesurer in situ le taux d’humidité dans les cavités des systèmes encapsulés. Comparativement aux actuelles techniques d’évaluation de l’herméticité, l’intérêt du dispositif réside dans la généralisation du test à chaque cavité, le contrôle de l’atmosphère de la cavité sur une longue période d’utilisation, et la correction automatique de la dérive occasionnée (packaging intelligent). Deux structures en Si poreux (SP) ont été étudiées pour réaliser des capteurs, et ont d’abord été caractérisées d’un point de vue morphologique. Les deux couches ont la même porosité de 45 %. Les mesures de sorption d’azote appliquées aux théories BET et BJH ont montré que SP1 et SP2 présentaient respectivement des surfaces spécifiques de 330 et 223 m²/g, et des diamètres poreux moyens de 4,3 et 5.5 nm. Une nouvelle méthode de caractérisation basée sur le traitement d’image de surface de Si poreux est présentée. La méthode permet d’estimer les distributions de taille de pore (DTP), porosité, surface spécifique et fraction volumique d’oxyde. Elle est validée par la cohérence des résultats obtenus, comparés à ceux donnés par les théories de sorption. Outre le caractère complet de l’analyse, les avantages de cette méthode sont sa simplicité de mise en œuvre, sa non restriction à une gamme de taille de pores, et l’absence d’hypothèse mathématique sur l’estimation de la DTP. Les tests électriques ont montré que SP1 présentait une résistance supérieure à SP2 et que le capteur basé sur SP1 présentait une plus grande sensibilité vis-à-vis de la prise d’humidité : -90 % entre 0 et 80 % d’humidité relative. La spécificité du transport électrique dans les structures étudiées a été mise en évidence expérimentalement, conduisant à l’hypothèse d’une barrière de potentiels à l’interface Si - Si poreux. La plus grande résistance présentée par SP1 a été explicitée par sa plus grande fraction volumique d’oxyde, ainsi que les effets plus prononcés de confinement quantique et de déplétion de surface. L’utilité d’un capteur d’humidité in situ en Si poreux pour l’herméticité des systems in package a été démontrée par les résultats expérimentaux d’un prototype. / This work deals with the improvement of reliability of packaged electronic devices, concerning the hermeticity and the disturbances caused by moisture infiltration. As an analysis method of sealing quality of Systems in Package (SiP), a study of humidity sensors for in situ moisture level evaluation of SiP microcavities is presented. Compared to others analysis methods, the interest of the present one is its global utility for all manufactured chips, the capability to monitor the cavities atmosphere over a long period, and the possibility of automatic drifts correction. Two porous silicon (PS) based structures have been studied to make sensors. First we performed morphological analyses of PS layers. Both have a porosity of 45 %. Nitrogen sorption measurements applied to BET and BJH theories showed that PS1 and PS2 respectively present specific areas of 330 and 223 m²/g and mean pore diameters of 4.3 and 5.5 nm. A new analysis method based on processing of PS surface images is presented. It allows the estimation of pore size distribution (PSD), porosity, specific area, and volumic oxide ratio. The method has been validated by the closeness between its results and sorption theories results. In addition to the method’s completeness, it presents several advantages such as easy-to-use application, no restriction on PSD range, and no computing hypothesis on PSD evaluation. Electrical measurements showed that PS1 resistance is higher than PS2 resistance, and that sensitivity of PS1 based sensors exposed to moisture variation is superior: -90 % from 0 to 80 % relative humidity. Specificity of carriers transport in PS structures has been experimentally underlined; leading to the hypothesis of a potential barrier between PS and non porous Si. Higher resistance has been explained by the higher volumic oxide ratio of PS1, and the more developed quantum confinement and depletion surface effects. Utility of such in situ PS moisture sensor for SiP hermeticity has been demonstrated by preliminary experimental results.
52

Dynamique des véhicules à deux roues et modifications les rendant plus sécuritaires

Ethier, Pierre 26 July 2019 (has links)
Québec Université Laval, Bibliothèque 2019.
53

Mesure de distance entre politiques de sécurité dans un service Web

Mohamed El-Marouf, Ahmed 23 April 2018 (has links)
La contribution principale de ce document est de suggérer une nouvelle méthode pour mesurer le degré de similarité entre politiques de sécurité écrites en XACML. Ceci est réalisé en deux étapes : premièrement, la politique de sécurité XACML est formalisée en SPL, deuxièmement les résultats obtenus vont servir pour mesurer la distance entre politiques. Le choix de la distance à utiliser dépend des types de prédicats (catégoriques ou numériques). De ce fait, un tableau synthétique a été prévu pour repartir les différentes métriques qui sont calculées dans ce document selon leurs prédicats. Un prototype a été codé en PHP et implémenté pour valider notre contribution. Des recommandations ont été émises en conclusion pour enrichir l’approche proposée. / The main contribution of this paper is to suggest a new method to measure the similarity between security policies written in XACML. This is done in two steps: first the safety policy is formalized in SPL, secondly the results will be used to measure the distance between policies. The choice of the distance to use depends on the types of predicates (categorical or numeric). Thus, a synthetic table is provided to link the different metrics that are calculated in accordance with their predicate. A prototype has been coded in PHP and implemented to validate our contribution. Recommendations were issued in conclusion to enrich the proposed approach.
54

Geometric synthesis of force and torque limiting modules for serial robot safety

Zhang, Meiying 13 October 2023 (has links)
Titre de l'écran-titre (visionné le 10 octobre 2023) / L'interaction physique humain-robot constitue un mode d'opération prometteur pour plusieurs applications où la force et l'endurance des robots peut être combinée aux capacités d'adaptation et de jugement des humains. Toutefois, l'interaction physique humain-robot soulève des questions au niveau de la sécurité. Les standards généralement acceptés dans le domaine de la robotique prescrivent un seuil de force statique maximale de 150 N et une puissance maximale de 80 W afin de considérer une situation donnée comme étant sécuritaire. Cette thèse propose la synthèse de mécanismes robotiques sériels qui soient intrinsèquement sécuritaires pour l'interaction physique humain-robot. Le concept proposé consiste à inclure un ensemble de limiteurs de forces ou de couples passifs avec des seuils constants dans la structure même du robot afin de limiter les efforts possibles à l'effecteur. Lorsque la force ou le couple appliqué à l'un des limiteurs dépasse la valeur seuil prescrite, celui-ci est déclenché, entraînant ainsi un mouvement qui vise à protéger les humains contre les forces excessives. Il est bien connu que la relation entre les efforts articulaires et les efforts à l'effecteur d'un robot varie en fonction de la configuration. Afin de pallier cet effet, il est proposé d'inclure un nombre de limiteurs supérieur au nombre d'articulations actionnées. Ainsi, la synthèse de modules de limiteurs de forces isotropes est présentée afin d'obtenir des forces transmises suffisantes tout en assurant la sécurité. Plusieurs modules de limiteurs de forces isotropes plans sont proposés et utilisés pour analyser les caractéristiques de robots sériels à deux degrés de liberté. En plus de modéliser les forces de contact à l'effecteur, les forces de contact le long des membrures ainsi que la puissance de collisions potentielles sont analysées. Des exemples de manipulateurs sériels et leur analyse statique sont présentés. Ensuite, le concept d'espace de force isotrope est généralisé afin d'inclure les modules tridimensionnels. Des architectures possibles de modules isotropes spatiaux sont proposés et les conditions requises pour assurer l'isotropie des efforts à l'effecteur sont obtenues. Des manipulateurs sériels spatiaux à trois degrés de liberté incluant un module isotrope sont proposés afin de démontrer l'efficacité du concept. Les forces maximales possibles le long des membrures sont aussi étudiées. Des limiteurs de forces et de couples sont montées sur la structure du robot afin de s'assurer que les forces de contact sont limitées en tout point du robot. Une analyse de la puissance est également présentée. Finalement, la mise en œuvre pratique de l'approche proposée dans la thèse est considérée. Deux types de limiteurs de forces ou couples sont proposés. Leur design est compact et permet de produire une limitation bi-directionnelle des efforts en utilisant un ressort unique. Le premier type de limiteur ne retourne pas à sa configuration initiale lorsque les efforts externes sont retirés puisque la résistance aux efforts externes diminue drastiquement lorsque le seuil d'activation est dépassé. À l'opposé, le second type de limiteur retourne automatiquement à sa configuration initiale lorsque les efforts externes sont retirés. Il est démontré que les architectures de limiteurs proposées peuvent être intégrées au design de membrures de robots grâce à leur simplicité et leur compacité. Des prototypes de modules isotropes sont alors construits et testés expérimentalement afin de démontrer leur possible utilisation pratique. / Physical human-robot interaction is a desirable paradigm for many applications where the strength and endurance of robots can be combined with the adaptability and judgement of human beings. However, physical interaction between humans and robots leads to safety concerns. Robotics standards state that, as a sufficient condition for allowing human-robot collaboration, the static force and the dynamic power at the tool centre point must not exceed 150 (N) and 80 (W), respectively. This dissertation proposes a synthesis approach to build intrinsically safe serial robotic mechanisms for applications in human-robot cooperation. In this concept, a number of passive torque and force limiters with constant force thresholds are included in the structure of a serial manipulator in order to limit the feasible forces at the tool centre point of the end-effector. Once the torque/force at any one of the limiters exceeds the prescribed maximum threshold, the corresponding clutch is triggered, thus protecting humans from injury. It is well known that the relationship between the joint torques/forces and the achievable end-effector forces is configuration dependent. In order to alleviate this effect, i.e., the variation of the joint to Cartesian force mapping, it is proposed to include more clutches than actuated joints. Hence, the design of isotropic force modules is addressed to produce proper force capabilities while ensuring safety. Several planar isotropic force modules are first proposed and used to analyze the force capabilities of two-degree-of-freedom planar serial robots. In addition to modelling the contact forces at the end-effector, the forces that can be applied by the robot to its environment when contact is taking place elsewhere along its links are also analyzed as well as the power of potential collisions. Examples of planar serial manipulator architectures and their static analysis are given. Then, the concept of isotropic force space is extended from planar modules to spatial modules. Possible architectures of spatial isotropic modules are proposed and the conditions required to ensure isotropy of the forces at the end-effector are derived. Three-degree-of-freedom spatial manipulators including a proposed spatial isotropic module are designed to demonstrate the effectiveness of the concept, and the maximum contact forces along the links are then studied. Force and torque limiter are distributed along the structure of the manipulator in order to ensure that the forces applied at any point of contact along the links are bounded. A power analysis is also presented in order to support the results obtained. Finally, the implementation of the proposed approach in a real application is addressed. Two types of passive clutch mechanisms are designed. Both are compact and produce a bi-directional limiting behaviour using a single extension spring. One is referred to as the no-return limiter. The mechanism does not return to its original configuration even if the external load is removed since its resisting torque drops rapidly once the limiter is triggered. The other one is the elastic return limiter, which can bring the robot links to their original positions after an applied excessive force is removed. The proposed architectures can be integrated in the design of robotic links since they are simple and compact. Then, some prototypes equipped with force and torque limiters are built and tested experimentally to illustrate a possible practical implementation of the concept.
55

Surveillance de la sécurité de la vaccination H1N1 chez les travailleurs de la santé

Gariépy, Marie-Claude 18 April 2018 (has links)
La sécurité des vaccins est évaluée par le biais du système de surveillance passive des manifestations cliniques indésirables (MCI). À cause du très grand nombre de personnes vaccinées lors des campagnes massives de vaccination contre l'influenza, si un effet secondaire modérément fréquent (ex. 1/1 000 vaccinés) survenait, le délai avant que la surveillance passive ait détecté un problème serait suffisamment long pour que des millions de personnes aient été vaccinés et que des milliers aient souffert de cet effet secondaire. Lors de la vaccination de masse contre l'influenza pandémique H1N1 en 2009, un projet pilote de surveillance électronique active de la sécurité du vaccin contre l'influenza pandémique chez plusieurs milliers de travailleurs de la santé a été mis sur pied. Cette surveillance visait à évaluer très rapidement la fréquence des problèmes de santé suffisamment sévères pour causer de l'absentéisme au travail ou une consultation médicale. La présente étude a évalué la qualité de cette surveillance par le biais de ses attributs comme définis dans le cadre de référence des Centers for Disease Control and Prevention (CDC) pour l'évaluation des systèmes de surveillance. Une méthodologie mixte (analyse quantitative et qualitative) a été utilisée. Les résultats montrent que la simplicité, la flexibilité, l'acceptabilité et la valeur prédictive positive (VPP) étaient des attributs plutôt acquis par le système de surveillance, mais que des déficiences étaient présentes dans le contrôle de la qualité des données, la sensibilité, la représentativité et la réactivité. Des recommandations ont été émises pour améliorer ce système, qui pourraient servir dans le cas d'une nouvelle pandémie ou s'intégrer au processus formel de surveillance de la vaccination saisonnière contre l'influenza.
56

Fabrication et caractérisation de fantômes optiques absorbants et diffusants

Bioud, Fatma-Zohra January 2010 (has links)
Depuis son entrée dans le monde de l'imagerie médicale, l'imagerie optique a connu un grand développement. Beaucoup d'intérêt lui est porté car cette modalité est non invasive et permettrait éventuellement de faire de l'imagerie moléculaire. Toutefois, elle doit relever un défi de taille, celui de la reconstruction de l'image. Cette étape est très ardue, car elle fait intervenir des modèles de propagation de la lumière dans les tissus biologiques complexes, qui se traduisent par des équations intégro-différentielles dont il est difficile de dériver des solutions analytiques. Ainsi, une étape essentielle au développement d'appareil d'imagerie, la calibration, devient cruciale. Les fantômes optiques, l'objet de ce travail de recherche, sont les standards de calibration qui servent à la réalisation de cette étape. Ces derniers interviennent pour valider les performances et les algorithmes de recontructions des appareils. Ce sujet de recherche s'inscrit dans le cadre du projet TomOptUS qui développe un appareil de tomographie optique diffuse pour petits animaux. Ce travail a deux objectifs principaux : la fabrication de fantômes aux propriétés optiques contrôlables et pouvant simuler celles des tissus biologiques et le développement de méthodes de caractérisation des milieux utilisés pour ces fantômes. La réalisation du volet fabrication a permis de doter le laboratoire d'un protocole robuste pour la fabrication de fantômes solides (par opposition à liquides). Ce protocole contourne une problématique majeure rencontrée souvent lors de la réalisation de fantômes solides, qui est la formation de bulles indésirables à l'intérieur des milieux fabriqués. Aussi, ce protocole permet la fabrication de fantômes de formes complexes tels que des fantômes de souris. Quant à la caractérisation, le laboratoire a vu l'implantation de deux méthodes de caractérisation qui permettent l'obtention des propriétées optiques de milieux absorbants et/ou diffusants. Ces méthodes s'inscrivent également à l'intérieur d'un protocole de caractérisation adapté aux besoins du laboratoire. L'étude approfondie des méthodes de caractériation a amené le développement d'une expertise qui pourrait être exploitée pour étendre l'utilisation de ces techniques de caractérisation sur des tissus biologiques, une voie d'avenir pour l'imagerie médicale.
57

Etude de l'influence de la qualité audiovisuelle sur la qualité d'expérience du spectateur : combinaison d'indicateurs subjectifs, physiologiques et oculaires

LASSALLE, Julie 22 October 2013 (has links) (PDF)
Dans un contexte fortement concurrentiel, l'un des principaux enjeux pour les acteurs de l'offre de services audiovisuels (AV) est de garantir au spectateur une qualité d'expérience (QoE) optimale. Aujourd'hui, la QoE est souvent restreinte à la perception de la qualité audiovisuelle restituée (QAV) par le système. Elle est principalement mesurée à travers la collecte de notes données par des participants sur des échelles de qualité, après visualisation et écoute de séquences AV traitées par le ou les technologies à évaluer. Ces tests subjectifs suivent des procédures recommandées par l'Union Internationale des Télécommunications. Cependant, la qualité restituée peut affecter la QoE (fatigue, effort, etc.) sans être reflétée par les notes de qualité. Une méthode considérant l'évaluation non plus de la QAV perçue seule mais de la qualité d'expérience, plus largement considérée, pourrait permettre de mieux rendre compte de l'influence de la qualité du son et de l'image sur le spectateur. Le présent travail est centré sur la recherche d'une méthode alternative aux méthodes actuelles de l'évaluation de qualité pour applications multimédias dans un contexte de visualisation et d'écoute de contenus AV 2D ou 3D. L'approche proposée aborde la QoE sous l'angle de l'analyse conjointe d'indicateurs subjectifs et d'indicateurs toniques physiologiques (activité électrodermale, rythme cardiaque, température cutanée périphérique, volume sanguin périphérique) et oculaires (PERCLOS, durée et fréquence de clignement de loeil, nombre de saccades, diamètre pupillaire). Les mesures physiologiques et oculaires ont pour avantage de ne pas être assujetties aux biais des mesures subjectives (représentativité, échelles, etc.) et de traduire des phénomènes comme la fatigue ou l'effort mental, potentiellement induits par la présence de dégradations sur les signaux audio et/ou vidéo et pouvant être critiques du point de vue de la QoE. Deux protocoles ont été testés. Les résultats ont montré que la QAV module l'expérience subjective et que les notes de qualité ne sont pas suffisantes pour refléter fidèlement cet effet. L'influence de la QAV sur les mesures physiologiques et oculaires est moins évidente. Un ensemble de facteurs, notamment lié à certains attributs du contenu de test comme la dynamique ou la luminosité, aurait pu masquer ou atténuer l'observation d'un effet de la qualité restituée. Néanmoins, deux des indicateurs physiologiques ont réagi à la présence de dégradations audio et/ou vidéo lorsque celles-ci étaient cumulées à l'effet préjudiciable d'autres facteurs (vidéo 3D ou effet de passation).
58

Élaboration d'un système d'alerte aux étiages à l'échelle du bassin versant de la rivière Yamaska au Québec

Zeestraten, Chantal January 2012 (has links)
Diverses études hydrologiques suggèrent que les changements climatiques anticipés entraîneront une diminution des débits d'étiage pour une majorité des rivières du sud du Québec. Cette situation risque de devenir particulièrement préoccupante dans le bassin versant de la rivière Yamaska, car son débit estival est déjà faible. Puisque cette rivière est la principale source d'approvisionnement en eau pour différentes municipalités et les industries qu'elles desservent, des actions doivent être entreprises avant d'en arriver à des situations critiques. Un système d'alerte basé sur des débits seuils jumelé à une prévision météorologique constituerait un outil de gestion puissant. L'élaboration d'un tel système d'alerte nécessite une bonne connaissance de la rivière. Des analyses statistiques des différents épisodes d'étiage survenus dans les années passées permettent d'en faire ressortir les débits historiques ainsi que d'en comprendre le comportement en tarissement. Une revue bibliographique et l'analyse de différents modèles de prévision des débits permettent de déterminer les modèles qui s'appliquent le mieux au bassin de la rivière Yamaska. Des mesures de restriction pour chacun des différents niveaux du système d'alerte proposé doivent être déterminées en s'inspirant des différentes mesures de restriction présentes dans différents pays, tout en tenant compte des facteurs économiques et politiques. Aussi, les critères écologiques et fonctionnels doivent être pris en compte lors de l'établissement de ces débits seuils. Sur la base d'un suivi d'indicateurs et de prévisions associées, ce mémoire propose donc un système d'alerte qui indiquera le moment où des mesures restrictives de prélèvement et de consommation doivent commencer à être appliquées. En plus de constituer un outil puissant pour le bassin versant de la rivière Yamaska, ce prototype de système d'alerte aux étiages pourra être adapté à d'autres bassins versants du Québec enclins aux étiages sévères.
59

Structure et performance du réseau des sociétés de capital de risque canadiennes, américaines et européennes

Gravel, Marie January 2015 (has links)
L’analyse de réseau est un outil de plus en plus utilisé dans le domaine financier. En effet, bien que ce type d’analyse ait vu le jour dans le domaine de la sociologie moderne, il est aujourd’hui utilisé dans une multitude de secteurs. Son principal attrait réside dans sa capacité à modéliser les relations entre les différents acteurs d’un marché et à les analyser sous différents angles de façon à en faire ressortir les principales caractéristiques. Le domaine financier en est un tout indiqué pour pratiquer ce genre d’analyse en raison des nombreuses interactions y prenant place. En effet, la syndication, soit la pratique d’investir ou de prêter conjointement à une entreprise, est aujourd’hui un outil largement utilisé par les différents acteurs des marchés financiers en raison des avantages évidents qu’il procure, tels que 1) la possibilité de contre-vérifier son analyse d’un titre, 2) la possibilité de répartir le risque et de combiner l’expertise et le support apporté aux firmes financées et 3) l’opportunité de mettre en commun des ressources et des capacités. Bien que la syndication des prêts par les banques soit bien connue, ce type d’investissement est également utilisé dans d’autres marchés dont celui du capital de risque. Quelques études liées à l’analyse de réseau ont jusqu’ici été réalisées dans ce marché, dont celle de Hochberg et al. (2007). Ces derniers utilisent l’analyse de réseau pour mesurer les connections entre les firmes de capital de risque américaines découlant de la syndication de leurs investissements. De façon encore plus intéressante, Hochberg et al. (2007) cherchent par la suite à comprendre en quoi le positionnement d’une firme de capital de risque au sein de son réseau influence la performance des fonds qu’elle crée et trouvent une relation positive et significative entre la centralité et la performance en contrôlant pour différents facteurs. Bien qu’il soit tentant d’extrapoler ces résultats au marché du capital de risque dans son ensemble, des différences au niveau de la structure des réseaux de capital de risque dans d’autres régions géographiques pourraient mener à des résultats différents. En effet, Hege et al. (2009) soulèvent des différences importantes entre le processus d’investissement des capital-risqueurs européens et américains et concluent que l’approche d’investissement moins sophistiquée en Europe mène à une sous-performance des firmes de capital de risque de ce marché. Nitani et Riding (2013) avancent pour leur part que les résultats des études effectuées sur le marché du capital de risque américain ne peuvent être directement appliqués aux plus petits marchés comme le Canada, car la taille des fonds joue un rôle important dans le degré de syndication observé dans un marché. Plus précisément, les auteurs suggèrent que la proportion élevée de petites firmes de capital de risque et la rareté des grosses firmes de capital de risque sur le marché canadien provoquent des contraintes de capital qui mènent à une sursyndication des investissements. Bien que la syndication ait plusieurs bienfaits, Nitani et Riding (2013) concluent que la sursyndication mine la performance des petites firmes de capital de risque sur le marché canadien et résulte en une probabilité de sortie par IPO ou M&A plus faible pour les entreprises supportées par ces dernières. À la lumière de ces résultats, il semble que malgré la relation positive observée par Hochberg et al. (2007) entre centralité et performance sur le marché américain, un niveau d’interrelations trop important a l’effet contraire lorsque la proportion de petites et de grosses firmes de capital de risque n’est pas balancée dans un marché. Les auteurs n’ont toutefois pas utilisé l’analyse de réseaux pour arriver à ces résultats. En ce sens, l’objectif principal de mon étude est d’utiliser l’analyse de réseau pour observer et comprendre la structure du réseau de syndication dans le domaine du capital de risque canadien de façon à la comparer à celle d'autres pays et d'identifier les particularités canadiennes. Je tenterai par la suite de rapprocher les études de Hochberg et al. (2007) et Nitani et Riding (2013) de façon à déterminer si une relation positive entre la centralité et la performance est également observée sur le marché canadien malgré l’impact négatif découlant des contraintes de capital identifiées sur ce marché. Mon mémoire est divisé comme suit. La section 1 est consacrée à la présentation de mon objectif de recherche et des sous-objectifs qui en découlent. Ensuite, la section 2 présente la revue de littérature en lien avec mon étude et traite 1) des caractéristiques propres au marché du capital de risque, 2) des motifs justifiant la syndication des investissements dans ce marché et des différences observées entre le marché américain et les marchés européen et canadien, 3) de la mesure de la performance dans ce domaine et 4) de la méthodologie et des résultats obtenus par Hochberg et al. (2007). La section 3 correspond pour sa part au cadre théorique et englobe la conceptualisation du problème, les hypothèses de recherche et les aspects innovateurs/contributions de l’étude. La section 4 décrit en détail la méthodologie utilisée afin de tester les hypothèses de recherche et la relation entre la centralité et la performance. Finalement, la section 5 est consacrée à l’analyse des résultats obtenus, alors que la section 6 conclut.
60

Localisation des noeuds dans les réseaux de capteurs sans fil

Boushaba, Mustapha January 2007 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Page generated in 0.0525 seconds