• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 642
  • 165
  • 95
  • 65
  • 24
  • 21
  • 18
  • 18
  • 18
  • 18
  • 18
  • 18
  • 13
  • 11
  • 11
  • Tagged with
  • 1243
  • 1243
  • 278
  • 269
  • 255
  • 255
  • 167
  • 164
  • 164
  • 130
  • 129
  • 113
  • 107
  • 105
  • 101
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
731

Nová koncepce velkoplošných závlahových systémů / New concept of large-area irrigation systems

Pírková, Marcela January 2021 (has links)
This diploma thesis is focused on a large-scale irrigation embedded in the urban landscape. The main goal is to find a new concept of the large-scale irrigation system using a minimum of added electrical energy. The system is aimed at rainwater harvesting and distribution in populated areas. Part of the work is the analysis of the zoning plan of the selected locality, the design of the entire system from the accumulation of collected water to the distribution of watering to the root zone of plants. In the practical part, the proposed distribution network is calculated according to the current known equations, and the calculation is finished with the choice of a suitable diameter of the pipeline network. In addition, the work suggests possible sites for new planting of plants.
732

Studium přenosu tepla turbulentním prouděním v studeném héliovém plynu v experimentu s Rayleigh-Bénardovou konvekcí na ÚPT AV v Brně / Study of heat transfer by turbulent flow in cold helium gas in experiment with Rayleigh-Bernard convection at ISI CAS in Brno

Balko, Marek January 2021 (has links)
The diploma thesis deals with the study of Rayleigh-Bénard convection for Rayleigh numbers in the range 1E8-1E14. The evaluated data come from an experiment with cryogenic helium in a cylindrical cell in a configuration with cell diameter D = 30 cm, height L = 30 cm and a second configuration with cell diameter D = 30 cm, height L = 15 cm. Miniature sensors recorded temperature fluctuations over time under various physical conditions and properties of helium. Using MATLAB software, the output parameters of the system (Nusselt and Reynolds numbers) and their dependence on the control parameters (Rayleigh and Prandtl numbers) were determined from the measured data. A new approach to the distribution of measured signals according to the direction of large scale circulation was used in the work, which leads to improved analysis. Reynolds numbers were evaluated using the so-called elliptic method. Furthermore, the work deals with the study of the coherent structure of the large scale circulation inside the cell.
733

Policy change or values change? The evolution of the environmental behavior of large-scale soybean producers in Mato Grasso, Brazil / Changement de politiques ou changement de valeurs ? L'évolution du comportement environnemental des grands producteurs de soja du Mato Grosso au Brésil

Delaroche, Martin 10 May 2019 (has links)
La production de commodities continue de s’étendre dans le monde. Historiquement, ces aires de production ont créé des opportunités économiques mais ont également eu des implications sociales et environnementales discutables. En 40 ans, l'État du Mato Grosso est devenu le principal producteur de soja du Brésil, représentant un quart de la production brésilienne et de 9% de la production mondiale, une expansion fulgurante vivement critiquée pour avoir causé des taux élevés de déforestation. Cette production est le résultat de petits exploitants agricoles qui ont émigré du sud du Brésil dans les années 1970 pour devenir aujourd'hui des grands producteurs de soja. Bien que les politiques environnementales adoptées dans les années 2000 aient réduit la déforestation, l’interaction entre ces politiques, les conditions de marché, la technologie agricole et l’évolution des valeurs des producteurs n’est pas claire. Quels sont les éléments constitutifs du comportement environnemental de ces producteurs et comment expliquer son changement ? Afin d’examiner cette évolution, nous avons choisi une approche multi-méthodes fondée sur une enquête de terrain comprenant 104 entretiens semi-structurés avec des producteurs, ainsi que des données quantitatives (changement d’utilisation des sols et analyse statistique). Bien que ce changement de comportement soit en partie lié aux conditions de marché et aux politiques environnementales, nous démontrons que l’identité techno-culturelle et les valeurs pro-environnementales de ces producteurs ont contribué de manière significative à ce changement. Cette thèse contient des enseignements précieux pour comprendre les mécanismes complexes susceptibles de limiter l'impact environnemental des futures frontières agricoles. / Commodity production keeps expanding around the world. Past areas of commodity production have provided economic opportunities, but mixed social and environmental outcomes. In 40 years, Mato Grosso state has turned into the largest Brazilian soybean producer, representing a quarter of the country’s and 9% of the world’s production. Criticism of deforestation outcomes abounded. Much of that production was the result of smallholder farmers who migrated from southern Brazil in the 1970s and turned today into large-scale soybean producers. While environmental policies since the mid-2000s contributed to deforestation reduction in the region, the interplay between these policies, market conditions, technology and changing farmers’ values is unclear. What constitutes the environmental behavior of these producers and what explains that it evolves over time? To examine this evolution, I used a multi-methods approach based on extensive field research, 104 semi-structured interviews with producers, and quantitative data (land-use change and statistical analysis). Although the behavioral change of large-scale soybean producers has partly to do with market conditions and environmental policies, I demonstrate that their evolution in that regard is the result of a particular techno-cultural identity and pro-environmental values developed over time. This dissertation holds valuable lessons for understanding the complex mechanisms that could limit the environmental impact of future commodity frontiers.
734

Etudes Expérimentales et lois prédictives des foyers d'incendies / Experimental studies and predictive laws for fire sources

Betting, Benjamin 21 September 2018 (has links)
Chaque année en France, les feux de compartiments donnent lieu à plus de 88 000 interventions impliquant plus de 15 000 personnes dont plusieurs centaines de décès et de blessés graves. Aujourd’hui, lors de ces feux, les prises de décision et les délais d’intervention des équipes de secours sont principalement basés sur des décisions humaines, fruits de l'expérience. Une connaissance parfaite de la situation, de son évolution dans le temps et des dangers qui peuvent apparaître est impossible. C’est en partie la cause majeure des mauvais chiffres répertoriés ci-dessus. En effet, les processus physicochimiques qui régissent les feux de compartiments et les situations collatérales extrêmement réactives et dangereuses sont complexes. La transition entre un feu localisé et un feu généralisé peut prendre plusieurs formes. L'un des vecteurs les plus importants dans la propagation de la combustion pour les feux de compartiments sont les fumées, du fait de leur température élevée (souvent supérieure à 600°C) et des quantités importantes d’énergie, sous forme de chaleur, qu'elles contiennent. Malgré leur extrême dangerosité, les fumées restent importantes à étudier car elles véhiculent de précieuses informations, notamment sur l’apparition de phénomènes thermiques redoutés par les pompiers. Afin de mener cette étude, une cellule expérimentale composé de deux containers maritimes a été installée sur le site de formation incendie des sapeurs-pompiers de Seine-Maritime. Cette plateforme va permettre, grâce à un brûleur alimenté en propane, de produire des fumées chaudes dans uneconfiguration dite « feu réel ». Elles seront analysées en partie grâce à une technique de mesure non intrusive, la PIV. Les mesures par PIV grands champs seront comparées à des simulations LES de l’expérience (FDS). La double compétence (numérique / expérimentale) est essentielle dans ce type d’étude où les données expérimentales souffrent d’un manque de résolution (spatiale et temporelle) mais pour autant représentent des informations nécessaires à la validation des codes. / Each year in France, compartment fires result in more than 88,000 interventions involving more than 15,000 people, including several hundred deaths and serious injuries. Today, during fire compartments, the decision-making of the rescue teams is mainly based on human decisions, as a result of the accumulated experience. However, a perfect knowledge of the situation, its evolution over time and the dangers that may appear is impossible. Therefore, studying the fumes is of major interest. Indeed, smoke remains important to study because it conveys valuable information, especially on the appearance of thermal phenomena feared by firemen. In order to carry out this study, an experimental cell made up of two maritime containers was installed on the site of the Seine-Maritime fire brigade fire training. This platform will produce hot smokes in a configuration called "real fire" thanks to a propane burner. In this study, the smoke dynamics in a large scale experimental setup is analyzed using a non-intrusive measurement technique such as PIV (Particle Image Velocity). All the performed measurements are compared with LES (Large Eddy Simulation) simulations of the experiment using Fire Dynamics Simulator (FDS). The double expertise (numerical / experimental) is essential in this type of study where the experimental data suffer from a lack of resolution (spatial and temporal) but nevertheless represents an important source of information necessary for the validation of the codes.
735

Déploiement large échelle du POCIS pour l’évaluation de la contamination par les pesticides dans les eaux de surface : apports et complémentarité dans le cadre des réseaux de surveillance du bassin Adour-Garonne / Large-scale deployment of POCIS for the evaluation of pesticide contamination in surface waters : contribution and complementarity within the Adour-Garonne basin monitoring networks

Bernard, Marion 10 December 2018 (has links)
Les milieux aquatiques sont les réceptacles finaux des pesticides organiques et inorganiques. Ainsi, des textes réglementaires fixant des objectifs afin de préserver et restaurer l’état des milieux aquatiques ont été établis (ex. Directive Cadre sur l’Eau). Ces textes réglementaires ou les programmes d'actions s'accompagnent de la mise en place de réseaux de suivi de la qualité des eaux. Ces suivis sont effectués via la réalisation de prélèvements ponctuels d'eau, fournissant une donnée souvent sujette à un manque de représentativité temporelle. Pour estimer de façon plus robuste une concentration moyenne dans le temps, des techniques d’échantillonnage passif ont été développées. Celles-ci permettent la pré-concentration in situ des contaminants et disposent d’une capacité intégrative sur plusieurs semaines. Ces travaux de thèse sont axés sur le Polar Organic Chemical Integrative Sampler (POCIS), largement utilisé pour l’échantillonnage des pesticides moyennement polaires et non ionisables (0<log Kow<4).Le premier volet de ces travaux de thèse avait pour objectif de tester la capacité du POCIS à intégrer de brèves variations de concentration en pesticides. Pour ce faire, une expérimentation simulant des pics de contamination d’intensités et de durées variables a été menée dans des conditions contrôlées de laboratoire. Cette expérimentation a démontré que la réactivité du POCIS face à de tels événements était dépendante des propriétés physico-chimiques des pesticides ciblés (notamment du log Kow) et de la durée d’exposition. Des profils d’accumulation différents ont été observés, avec deux phénomènes opposés survenus en début d’exposition, soit le « burst effect » ou le « lag effect ». Malgré ces deux phénomènes, le domaine d’applicabilité du POCIS a été mieux défini puisqu’il a été démontré que pour des pesticides caractérisés par un log Kow entre 2 et 4, les pics de contamination étaient bien pris en compte dans la concentration moyennée obtenue.Le second volet de ces travaux devait définir à large échelle l’apport du POCIS en complément des réseaux de suivi basés sur les prélèvements ponctuels. Dans ce contexte, 51 sites du réseau de contrôle DCE localisés sur les cours d’eau du bassin Adour-Garonne ont été échantillonnés 6 fois en 2016 via ces deux techniques. L’exploitation des données acquises pendant cette année de terrain s’est découpée en deux axes. Le premier avait pour objectif de comparer les informations fournis via les deux techniques. L’apport des caractéristiques intégratives du POCIS y a été démontré. En effet, le POCIS permet d’améliorer significativement le nombre de pesticides quantifiés ainsi que leur fréquence de quantification. De plus, il fournit une meilleure représentativité temporelle des niveaux de contamination mesurés, puisqu’il permet d’avoir une image plus réaliste des variations annuelles des concentrations en lien avec les usages des pesticides ciblés (saisonnalité). Ainsi, la combinaison de ces deux techniques a permis une meilleure caractérisation de la pression « pesticides » subie par le bassin Adour-Garonne.Le second axe visait à proposer une méthodologie d’exploitation automatisée permettant une interprétation visuelle et simple d’un jeu de données conséquent (> 10 000 données). Les données acquises avec les POCIS ont été utilisées pour réaliser des analyses multivariées, type « principal component analysis » et « hierarchical cluster analysis » afin de démontrer des liens entre occupation du sol et pesticides quantifiés. De plus, l’empreinte « pesticides » de chaque site a été établie. Ainsi, ce dernier axe a permis une meilleure caractérisation des zones les plus à risques ainsi qu’une identification rapide des sources potentielles.Ces travaux de thèse ont donc démontré des aspects fondamentaux et appliqués qui confirment l’intérêt du POCIS pour évaluer la qualité des eaux superficielles vis-à-vis des pesticides. / The aquatic environments are considered as the final receptacles of organic or inorganic pesticides. Thus, regulatory texts were established in order to preserve and restore the good status for the aquatic environments (e.g. Water Framework Directive). Currently, the conventional method for freshwater analysis is grab sampling several times per year with a lack of temporal representativeness. To overcome this issue, and in the aim of estimating a robust average concentration over time, passive sampling strategies have been developed. These samplers allow an in situ pre-concentration of contaminants and offer an integrative capacity of several weeks. This thesis focuses on the Polar Organic Chemical Integrative Sampler (POCIS), which is widely used for the sampling of moderately polar or no-ionizable pesticides (0<log Kow<4).The first part of this thesis aimed to test the POCIS capacity to integrate short pesticides contamination peaks. In this way, a laboratory controlled-conditions experiment which included pesticides contamination peaks of variable intensity and duration was performed over 14 days. This experiment proved that POCIS response depends on physico-chemical properties of the studied pesticides and also on the exposure duration. During the first part of the exposure period two different phenomena were observed, which were a “burst effect” or a “lag effect”. Despite these, short contamination peaks were well integrated in the time weighted average concentration, for pesticides with log Kow between 2 and 4.The second part of this thesis was to define, at a large scale, the contribution of POCIS as a complement to the monitoring networks based on grab samples. In this context, 51 monitoring stations located in the Adour-Garonne basin were sampled with these two techniques during 6 periods in 2016. The analysis of the large amount of data collected during this 1-year monitoring was divided into two axes. Firstly, information provided with POCIS and grab samples was compared. The contribution of the integrative capacity of POCIS was demonstrated; this capacity allowed us to obtain additional and complementary information to those of the monitoring networks. Indeed, POCIS improved significantly the number of quantified pesticides as well as their quantification frequency. Moreover, POCIS brought a better temporal representativeness of contamination levels, since it provided a more realistic picture of the annual variations in concentration levels related to the seasonality in the use of some pesticides. Thus, the combination of grab samples and POCIS provided a better assessment of pesticide contamination levels in the Adour-Garonne basin.The second axis aimed to propose an automated methodology allowing a visual and simple interpretation of a large dataset (> 10,000 data). Data acquired with POCIS were used to demonstrate correlations between land use and quantified pesticides. In this context, multivariate analyses, such as hierarchical clustering and principal component analyses, confirmed the relationship between land use in the watershed and the major pesticides quantified. Then, the "pesticide" fingerprint of each site was established. Finally, this last axis has made it possible to better characterize the sites most at risk and to quickly identify potential sources.This thesis work demonstrated fundamental and applied aspects, which confirm the interest of the POCIS in assessing the freshwater quality for pesticides.
736

Gramian-Based Model Reduction for Data-Sparse Systems

Baur, Ulrike, Benner, Peter 27 November 2007 (has links)
Model reduction is a common theme within the simulation, control and optimization of complex dynamical systems. For instance, in control problems for partial differential equations, the associated large-scale systems have to be solved very often. To attack these problems in reasonable time it is absolutely necessary to reduce the dimension of the underlying system. We focus on model reduction by balanced truncation where a system theoretical background provides some desirable properties of the reduced-order system. The major computational task in balanced truncation is the solution of large-scale Lyapunov equations, thus the method is of limited use for really large-scale applications. We develop an effective implementation of balancing-related model reduction methods in exploiting the structure of the underlying problem. This is done by a data-sparse approximation of the large-scale state matrix A using the hierarchical matrix format. Furthermore, we integrate the corresponding formatted arithmetic in the sign function method for computing approximate solution factors of the Lyapunov equations. This approach is well-suited for a class of practical relevant problems and allows the application of balanced truncation and related methods to systems coming from 2D and 3D FEM and BEM discretizations.
737

Functionalization and large scale assembly of carbon nanotubes

Majumder, Anindya 17 May 2016 (has links)
Assembly of nanoparticles provides effective building blocks for physical, chemical and biological systems which have surprisingly collective intrinsic physical properties. One-dimensional nanomaterials are one of the most spectacular and promising candidates for technological application in the field of nanotechnology. Single-walled carbon nanotubes represent an anisotropic and perfectly one-dimensional group of nanomaterials with extraordinary electronic, mechanical, chemical and thermal properties. Usually, such nanoparticles are dispersed in solution, and for any application it’s necessary to bring them on the surface in an organized way. However, to exploit its full potential and to ensure efficient scale-up, self assembly of such nanoparticles is absolutely essential. The aim of this work is to develop new strategies for alignment by self assembly of such one-dimensional nanomaterials like carbon nanotubes using combination of different conventional techniques. This includes a functionalization study with new strategy for hybrid bio-functionalization of carbon nanotubes which could have potential application in drug delivery, genetic engineering and biosensors. The possibility to make hybrid structure functionalization by attaching ss-DNA backbone to the positively charged head group of a cationic surfactant by ionic interaction is demonstrated. Localization of nanoparticles at liquid-liquid interfaces by manipulating the particle surface energy is an upcoming area with great potential for research and opens a window to fabricate self assembled interfacial structured hybrid materials with unique properties. In this direction, a strategy for alignment of carbon nanotubes at liquid-liquid interfaces using dielectrophoresis is also investigated. Finally, a new and unique strategy for large scale alignment of carbon nanotubes is presented by combing dielectrophoresis during Langmuir-Blodgett assembly process. The degree of alignment is verified using polarized micro Raman spectroscopy and direction dependent electrical conductivity measurements.:Chapter 1: Carbon Nanotubes Chapter 2: Self assembly and alignment of carbon nanotubes Chapter 3: Materials and methods Chapter 4: Results Chapter 5: Conclusions and outlook / Die Assemblierung von Nanopartikeln liefert effektive Bausteine für physikalische, chemische und biologische Systeme, welche erstaunliche kollektive und spezifische Eigenschaften aufweisen. Eindimensionale Nanopartikel sind mitunter die spektakulärsten und vielversprechendsten Materialien für technologische Anwendungen im Feld der Nanotechnologie. Einzelwand-Kohlenstoffnanoröhren stellen eine Gruppe von anisotropen und perfekt eindimensionalen Nanopartikeln mit außergewöhnlichen elektronischen, mechanischen, chemischen und thermischen Eigenschaften dar. Im Allgemeinen befinden sich solche Nanopartikel in gelöster Form. Für alle Arten der Anwendung müssen diese notwendigerweise in organisierter Weise auf Oberflächen abgeschieden werden. Um ihr volles Potential auszuschöpfen und eine effiziente Hochskalierbarkeit zu erreichen, ist eine Self Assembly solcher Objekte zwingend erforderlich. Ziel dieser Arbeit ist es, neue Strategien für Ausrichtung und Self Assembly von eindimensionalen Nanopartikeln wie Kohlenstoffnanoröhren mit einer Kombination von konventionellen Techniken zu entwickeln. Dies beinhaltet eine Funktionalisierungsstudie mit neuer Strategie für hybrid-bio-Funktionalisierung von Kohlenstoffnanoröhren, welche eine potentielle Anwendungsmöglichkeit in der Medikamentenverabreichung, Gentechnik und Biosensoren darstellt. Die Möglichkeit hybride Struktur Funktionalisierung durch Anfügen von ss-DNA-Rückgrat der positiv geladenen Kopf Gruppe der kationischen Tensiden durch Ionische Wechselwirkung wird demonstriert. Eine Anreicherung von Flüssigkeits-Flüssigkeits-Grenzflächen mit Nanopartikeln durch Kontrolle der Partikel Oberflächenenergie ist ein neus Forschungsgebiet mit großem Potential für die Forschung, welche, die Möglichkeit eröffnet, selbst-organisierte, grenzflächenstrukturierte Hybridmaterialien mit einzigartigen Eigenschaften herzustellen. Anknüpfend hieran wird auch eine Strategie zur Ausrichtung von Kohlenstoffnanoröhren an Grenzflächen mittels Dielektrophorese untersucht. Letztlich wird eine neuentwickelte, einzigartige Strategie zur großflächigen Ausrichtung von Kohlenstoffnanoröhren vorgestellt, welche auf einer Kombination von Dielektrophorese und Langmuir-Blodgett-Technik durch gleichzeitige Anwendung im Anordnungsprozess beruht. Der Grad der Ausrichtung ist mit polarisierten Mikro Raman-Spektroskopie und Richtung abhängige elektrische Leitfähigkeit Messungen überprüft.:Chapter 1: Carbon Nanotubes Chapter 2: Self assembly and alignment of carbon nanotubes Chapter 3: Materials and methods Chapter 4: Results Chapter 5: Conclusions and outlook
738

Étude des composantes noires de l'univers avec la mission Euclid / Study of the dark components of the Universe with the Euclid mission

Tutusaus Lleixa, Isaac 20 September 2018 (has links)
Le modèle de concordance de la cosmologie, appelé ΛCDM, est un succès de la physique moderne, car il est capable de reproduire les principales observations cosmologiques avec une grande précision et très peu de paramètres libres. Cependant, il prédit l'existence de matière noire froide et d'énergie sombre sous la forme d'une constante cosmologique, qui n'ont pas encore été détectées directement. Par conséquent, il est important de considérer des modèles allant au-delà de ΛCDM et de les confronter aux observations, afin d'améliorer nos connaissances sur le secteur sombre de l'Univers. Le futur satellite Euclid, de l'Agence Spatiale Européenne, explorera un énorme volume de la structure à grande échelle de l'Univers en utilisant principalement le regroupement des galaxies et la distorsion de leurs images due aux lentilles gravitationnelles. Dans ce travail, nous caractérisons de façon quantitative les performances d'Euclid vis-à-vis des contraintes cosmologiques, à la fois pour le modèle de concordance, mais également pour des extensions phénoménologiques modifiant les deux composantes sombres de l'Univers. En particulier, nous accordons une attention particulière aux corrélations croisées entre les différentes sondes d'Euclid lors de leur combinaison et estimons de façon précise leur impact sur les résultats finaux. D'une part, nous montrons qu'Euclid fournira d'excellentes contraintes sur les modèles cosmologiques qui définitivement illuminera le secteur sombre. D'autre part, nous montrons que les corrélations croisées entre les sondes d'Euclid ne peuvent pas être négligées dans les analyses futures et, plus important encore, que l'ajout de ces corrélations améliore grandement les contraintes sur les paramètres cosmologiques. / The concordance model of cosmology, called ΛCDM, is a success, since it is able to reproduce the main cosmological observations with great accuracy and only few parameters. However, it predicts the existence of cold dark matter and dark energy in the form of a cosmological constant, which have not been directly detected yet. Therefore, it is important to consider models going beyond ΛCDM, and confront them against observations, in order to improve our knowledge on the dark sector of the Universe. The future Euclid satellite from the European Space Agency will probe a huge volume of the large-scale structure of the Universe using mainly the clustering of galaxies and the distortion of their images due to gravitational lensing. In this work, we quantitatively estimate the constraining power of the future Euclid data for the concordance model, as well as for some phenomenological extensions of it, modifying both dark components of the Universe. In particular, we pay special attention to the cross-correlations between the different Euclid probes when combining them, and assess their impact on the final results. On one hand, we show that Euclid will provide exquisite constraints on cosmological models that will definitely shed light on the dark sector. On the other hand, we show that cross-correlations between Euclid probes cannot be neglected in future analyses, and, more importantly, that the addition of these correlations largely improves the constraints on the cosmological parameters.
739

Exploring Impact of Project Size in Effort Estimation : A Case Study of Large Software Development Projects

Nilsson, Nathalie, Bencker, Linn January 2021 (has links)
Background: Effort estimation is one of the cornerstones in project management with the purpose of creating efficient planning and the ability to keep budgets. Despite the extensive research done within this area, one of the biggest and most complex problems in project management within software development is still considered to be the estimation process. Objectives: The main objectives of this thesis were threefold: i) firstly to define the characteristics for a large project, ii) secondly to identify factors causing inaccurate effort estimates and iii) lastly to understand how the identified factors impact the effort estimation process, all of this within the context of large-scale agile software development and from the perspective of a project team.Methods: To fulfill the purpose of this thesis, an exploratory case study was executed. The data collection consisted of archival research, questionnaire, and interviews. The data analysis was partly conducted using the statistical software toolStata.Results: The definition of a large project is from a project team’s perspective based on high complexity and a large scope of requirements. The following identified factors were identified to affect the estimation process in large projects: deficient requirements, changes in scope, complexity, impact in multiple areas, coordination, and required expertise, and the findings indicate that these are affecting estimation accuracy negatively. Conclusions: The conclusion of this study is that besides the identified factors affecting the estimation process there are many different aspects that can directly or indirectly contribute to inaccurate effort estimates, categorized as requirements, complexity, coordination, input and estimation process, management, and usage of estimates.
740

Formal Modeling and Verification of Delay-Insensitive Circuits

Park, Hoon 22 December 2015 (has links)
Einstein's relativity theory tells us that the notion of simultaneity can only be approximated for events distributed over space. As a result, the use of asynchronous techniques is unavoidable in systems larger than a certain physical size. Traditional design techniques that use global clocks face this barrier of scale already within the space of a modern microprocessor chip. The most common response by the chip industry for overcoming this barrier is to use Globally Asynchronous Locally Synchronous (GALS) design techniques. The circuits investigated in this thesis can be viewed as examples of GALS design. To make such designs trustworthy it is necessary to model formally the relative signal delays and timing requirements that make these designs work correctly. With trustworthy asynchrony one can build reliable, large, and scalable systems, and exploit the lower power and higher speed features of asynchrony. This research presents ARCtimer, a framework for modeling, generating, verifying, and enforcing timing constraints for individual self-timed handshake components that use bounded-bundled-data handshake protocols. The constraints guarantee that the component's gate-level circuit implementation obeys the component's handshake protocol specification. Because the handshake protocols are delay insensitive, self-timed systems built using ARCtimer-verified components can be made delay insensitive. Any delay sensitivity inside a component is detected and repaired by ARCtimer. In short: by carefully considering time locally, we can ignore time globally. ARCtimer applies early in the design process as part of building a library of verified components for later system use. The library also stores static timing analysis (STA) code to validate and enforce the component's constraints in any self-timed system built using the library. The library descriptions of a handshake component's circuit, protocol, timing constraints, and STA code are robust to circuit modifications applied later in the design process by technology mapping or layout tools. New contributions of ARCtimer include: 1. Upfront modeling on a component by component basis to reduce the validation effort required to (a) reimplement components in different technologies, (b) assemble components into systems, and (c) guarantee system-level timing closure. 2. Modeling of bounded-bundled-data timing constraints that permit the control signals to lead or lag behind data signals to optimize system timing.

Page generated in 0.0636 seconds