• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 457
  • 50
  • 23
  • 8
  • 7
  • 7
  • 7
  • 7
  • 7
  • 6
  • 1
  • Tagged with
  • 554
  • 279
  • 62
  • 56
  • 55
  • 52
  • 51
  • 46
  • 40
  • 38
  • 37
  • 37
  • 37
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Misturas de modelos"Logit","Probit"e"Complemento Log-Log". / not available

Zocchi, Sílvio Sandoval 27 August 1993 (has links)
Nos ensaios de dose e resposta, geralmente são aplicadas diferentes intensidades (doses) de um estímulo (produto) a diferentes grupos de uma população de indivíduos, que poderão responder ou não. A dose máxima que cada indivíduo tolera é chamada tolerância e no caso de se considerar toda a população, ter-se-á uma distribuição de tolerâncias. Muitas vezes, porém, dentro de uma mesma população, existe uma mistura de indivíduos de diferentes sexos, raças, estágios de desenvolvimento, etc., caracterizando subpopulações com diferentes distribuições de tolerâncias. LWIN & MARTIN (1989) apresentam uma mistura de modelos probit". Neste trabalho, faz-se um estudo geral para misturas de modelos"probit","logit"e"complemento-log-log". Para a estimação dos parâmetros desses modelos, utilizou-se o método de escores de Fisher e uma modificação do algoritmo EM, implementados através dos pacotes computacionais Excel 4.0 for Windows e GLIM. Para exemplificar essa metodologia, foi conduzido e analisado um ensaio de resistência da mosca (<!>Musca. Domestica</!>.) ao inseticida deltametrina. Analisou-se, ainda, um ensaio de sensibilidade de um isolado do fungo <!>Metarhizium anisopliae</!> a diferentes doses de radiação e reanalisou-se o ensaio de resistência dos ovos do verme <!>Ostergagia. Spp.</!> a diferentes doses de tiabendazol (TEZ), apresentado por LWIN & MARTIN (1989). Observou-se a adequação do método aos casos em que havia razões biológicas para a existência de uma mistura de distribuições, confirmada pelo mau ajuste de modelos para uma única distribuição. Confirmando o que afirmaram TITTERINGTON & MORGAN (1977), observou-se, ainda, na estimação dos parâmetros do modelo de misturas, a menor velocidade de convergência do algoritmo EM, quando comparado com o método de Newton-Raphson modificado (método de escores de Fisher) / not available
42

Misturas de modelos"Logit","Probit"e"Complemento Log-Log". / not available

Sílvio Sandoval Zocchi 27 August 1993 (has links)
Nos ensaios de dose e resposta, geralmente são aplicadas diferentes intensidades (doses) de um estímulo (produto) a diferentes grupos de uma população de indivíduos, que poderão responder ou não. A dose máxima que cada indivíduo tolera é chamada tolerância e no caso de se considerar toda a população, ter-se-á uma distribuição de tolerâncias. Muitas vezes, porém, dentro de uma mesma população, existe uma mistura de indivíduos de diferentes sexos, raças, estágios de desenvolvimento, etc., caracterizando subpopulações com diferentes distribuições de tolerâncias. LWIN & MARTIN (1989) apresentam uma mistura de modelos probit". Neste trabalho, faz-se um estudo geral para misturas de modelos"probit","logit"e"complemento-log-log". Para a estimação dos parâmetros desses modelos, utilizou-se o método de escores de Fisher e uma modificação do algoritmo EM, implementados através dos pacotes computacionais Excel 4.0 for Windows e GLIM. Para exemplificar essa metodologia, foi conduzido e analisado um ensaio de resistência da mosca (<!>Musca. Domestica</!>.) ao inseticida deltametrina. Analisou-se, ainda, um ensaio de sensibilidade de um isolado do fungo <!>Metarhizium anisopliae</!> a diferentes doses de radiação e reanalisou-se o ensaio de resistência dos ovos do verme <!>Ostergagia. Spp.</!> a diferentes doses de tiabendazol (TEZ), apresentado por LWIN & MARTIN (1989). Observou-se a adequação do método aos casos em que havia razões biológicas para a existência de uma mistura de distribuições, confirmada pelo mau ajuste de modelos para uma única distribuição. Confirmando o que afirmaram TITTERINGTON & MORGAN (1977), observou-se, ainda, na estimação dos parâmetros do modelo de misturas, a menor velocidade de convergência do algoritmo EM, quando comparado com o método de Newton-Raphson modificado (método de escores de Fisher) / not available
43

Modelos não lineares aplicados ao crescimento da macrófita Lemna minor

JERÔNIMO, Gabriel da Costa Cantos 28 January 2015 (has links)
O estudo de plantas aquáticas (macrófitas) tem sido considerado relevante por elas apresentarem potencial de utilização em estudos de ecotoxicologia, como bioindicadoras ou até mesmo no tratamento de águas residuárias. A modelagem do crescimento dessas plantas, especificamente a Lemna minor, se mostra interessante do ponto de vista da otimização dessas aplicações e, portanto, vê-se necessário estabelecer o melhor modelo de crescimento dessa espécie. As curvas de crescimento são a base em que são aplicados os modelos não lineares e elas são obtidas pela coleta de dados de crescimento, em uma determinada amostra, ao longo do tempo. É possível que a hipótese de independência dos erros, geralmente assumida nos modelos básicos de regressão, não seja apropriada, uma vez que pode haver correlação entre o erro relativo a um período e o erro da observação anterior, portanto, há que se verificar a existência de correlação entre os erros. O objetivo deste trabalho foi determinar qual o modelo não linear que melhor descreve o crescimento da macrófita Lemna minor cultivada em solução aquosa de meio Steinberg. Aos dados médios de crescimento das frondes foram ajustados cinco modelos não lineares, utilizando o método de mínimos quadrados ordinários e o processo iterativo de Gauss-Newton. As análises foram realizadas no software R, utilizando-se o pacote nlme e a função gnls. O teste de Durbin-Watson, que identifica autocorrelação residual, apontou para a existência de erros autocorrelacionados apenas no modelo de von Bertalanffy. Após o ajuste e a comparação dos modelos por meio dos avaliadores da qualidade de ajuste, concluiu-se que o modelo não linear que melhor descreve o crescimento de Lemna minor é o modelo Logístico. / The study of aquatic plants (macrophytes) has been considered relevant because these plants present the potential of being used in ecotoxicology studies, as bioindicators and even in wastewater treatment. The growth modeling of such plants, specifically Lemna minor, proved to be relevant for optimizing the above-mentioned applications. It is therefore, necessary to stablish the best growth model of such specie. Since growth curves are the basis on which nonlinear models are applied and they are obtained by collecting growth data of a determined sample over time, the hypothesis of independent residuals, which is very often assumed in the basic models of regression, may not be appropriate in this case. Once there can be a correlation between the residual of an observation over a period of time and the residual of previous observations, the most advisable course of action is to check the correlation between residuals. The objective of this paper was to determine the nonlinear model that best describes the growth of the macrophyte Lemna minor grown in a Steinberg medium. Five nonlinear models were fitted to the growth data using the Gauss-Newton algorithm for the ordinary minimum square method. The Durbin-Watson test, which identifies the residual autocorrelation, has been used an the results pointed to the existence of autocorrelated residuals in the von Bertalanffy model. After the adjustment of the parameters of autocorrelation for each of the tested models, it was concluded that the model that best describes the growth of the Lemna minor is the Logistic model.
44

Estudo sobre as curvas de mortalidade proporcional de Nelson de Moraes / Study on proportional mortality curves of Nelson de Moraes

Loffredo, Leonor Castro Monteiro 09 November 1979 (has links)
Este trabalho foi realizado com o objetivo de se estudar: - a concordância de um mesmo pesquisador, ao classificar, em ocasiões diferentes, as curvas de mortalidade proporcional, - a concordância entre diferentes pesquisadores na interpretação das curvas de mortalidade proporcional e ou - a concordância entre a curva de mortalidade proporcional e cada um dos indicadores, coeficiente de mortalidade infantil e razão de mortalidade proporcional, na indicação de alteração do nível de saúde de coletividades. Empreqou-se a estatística do tipo Kappa e encontrou-se: (GRÁFICO) / This study was realized with the purpose of examining: - the agreement of the same researcher, in classifying, on different occasions, the proportional mortality curves, - the agreement among different researchers in the interpretation of the proportional mortality curves, - the agreement among the proportional mortality curve and each one of the health indicators, infant mortality rate and proportional mortality ratio, in the indication of alteration of the level of health for communities. The statistics, type Kapna, was utilized and these were the findings: (GRAFICO)
45

Expresiones analíticas para determinar el límite de velocidad de vehículos en curvas y su aplicación en carreteras del Perú

Pérez Ballón, Luis Vicente 29 October 2016 (has links)
A partir del análisis mecánico teórico de la operación de un vehículo circulando en carreteras y/o curvas, este trabajo pretende definir las expresiones analíticas que relacionen las variables participantes y determinar los valores críticos de la velocidad de circulación para evitar el derrape (deslizamiento lateral) y/o evitar también el vuelco (volcadura). Para esto se identificarán las cargas actuantes sobre el vehículo (analizado como un sólido rígido); se presentarán las hipótesis y los puntos de partida para obtener esas expresiones analíticas y calcular la velocidad crítica de vuelco y la velocidad crítica de derrape a partir de las magnitudes, recomendadas para las carreteras del Perú, como son el radio mínimo de curvatura de la carretera, el coeficiente de fricción máximo con la pista y el peralte máximo aceptable, relacionadas con la velocidad de ingreso a una curva; se compararán esos valores teóricos, con las magnitudes presentadas y obtenidas a partir de las pruebas y ensayos experimentales mostradas y se concluirán y recomendarán los valores permisibles en la velocidad, para una operación del vehículo en curvas que presente seguridad para sus ocupantes. Los principales resultados obtenidos muestran una velocidad crítica de derrape que se encuentra en el intervalo de [20 ; 60](km h) mientras que para la velocidad crítica de vuelco se ubica en el intervalo de valores entre [42 ; 80](km h). Por otro lado, de los ensayos experimentales presentados se muestra que la velocidad de circulación máxima experimental en curvas es de 60 (km/h). Entre las conclusiones más importantes podemos afirmar que la velocidad de derrape y la velocidad de vuelco presentan expresiones análogas, pudiendo cambiar indistintamente la magnitud del coeficiente de fricción μ por la relación entre las magnitudes del Centro de Gravedad del sólido (l h) para obtener correspondientemente, la velocidad de derrape o la velocidad de vuelco. Además al comparar los intervalos obtenidos para la velocidad crítica de derrape y para la velocidad crítica de vuelco concluimos que el vehículo tenderá a derrapar antes que volcar y, en función de mantener la estabilidad del mismo y asegurar la integridad física de los pasajeros, concluimos que el valor máximo de ingreso a una curva sería de 60 (km h). / Tesis
46

Projecto de execução de um nó de ligação em trompete nas especialidades de geometria do traçado e pavimentação

Fragata, João Pedro Camelo January 2008 (has links)
Estágio realizado no ... e orientado pelo Eng.º / Tese de mestrado integrado. Engenharia ivil (especialização em Vias de Comunicação). Faculdade de Engenharia. Universidade do Porto. 2008
47

A acústica de museus tradicionais : estudo de caso, o Museu Nacional Soares dis Reis (Porto)

Garcia Luísa Maia Mota January 2012 (has links)
Tese de mestrado. Mestrado Integrado em Engenharia Civil - Especialização em Construções. Faculdade de Engenharia. Universidade do Porto. 2012
48

Diseño e implementación de la correlación y de la correntropía cruzada, utilizando FPGA

Rivera Serrano, Francisco Javier January 2017 (has links)
Magíster en Ciencias de la Ingeniería, Mención Eléctrica / La Correntropía es una medida no lineal de similitud entre dos variables aleatorias. Esta Tesis plantea una forma de implementación de la correntropía, haciendo uso de dispositivos digitales de alta integración llamados FPGA (Field Programmable Gate Array ) los cuales permiten procesar la información directamente en hardware, logrando mejoras significativas en los tiempos de proceso. El objetivo de esta Tesis es el diseño e implementación en hardware de la correlación cruzada y de la correntropía cruzada, utilizando FPGA. De acuerdo a lo investigado a la fecha, existen trabajos previos en la implementación de la correlación pero no así para la correntropía en la forma como aquí se plantea. Para poder comparar lo obtenido con correntropía, se implementó también la correlación cruzada, utilizando los mismos dispositivos FPGA. En base a lo anterior, se desarrolló un diseño considerando la obtención de la menor latencia posible para el cálculo de la Correntropía, siendo la latencia el retardo producido entre la entrada y la salida para producir un resultado esperado. Se supone que la latencia de un FPGA es menor entre uno y dos órdenes de magnitud, comparado con un procesador, lo cual se demuestra en este trabajo. En esta Tesis, con el fin de implementar el hardware en base a dispositivos FPGA, se ha desarrollado una metodología de diseño en Sistemas Digitales, basada en Máquinas de Estado Finito que separa claramente el diseño de la implementación y puede ser aplicada para abordar sistemas digitales complejos y de gran envergadura. Para desarrollar esta Tesis se decidió utilizar la tarjeta de desarrollo Nexys4 de Xilinx la cual utiliza la herramienta de software VIVADO. Dentro de VIVADO, el lenguaje de descripción de hardware (HDL) utilizado fue SystemVerilog. En relación al desarrollo del proyecto, éste se dividió en dos etapas: la primera contempló el diseño e implementación de la Correlación Cruzada, utilizando un FPGA. Se utilizó la definición de correlación en el dominio de la frecuencia. Esto implicó utilizar módulos que calculan la Transformada de Fourier para cada una de las entradas. La segunda etapa del proyecto contempló el diseño e implementación de la Correntropía Cruzada, propiamente tal, utilizando un FPGA. El enfoque de diseño es diferente al aplicado a la correlación, dado que la definición de correntropía incluye un Kernel Gaussiano. En ambas etapas del proyecto se lograron los resultados esperados: salidas del diseño implementado para FPGA, idénticas a las salidas dadas por la herramienta MATLAB, considerando diferentes tipos de entradas: señales sinusoidales de distinto tipo dado que son más fáciles de implementar y visualizar, series de tiempo de señales electromagnéticas de Astronomía y eventos de husos de sueño en registros de electroencefalogramas (EEG). Se confirma, además, la menor latencia, de al menos un orden de magnitud, de las salidas de la herramienta VIVADO en comparación a lo obtenido con la herramienta MATLAB, obteniéndose menores latencias para la Correlación que para la Correntropía.
49

Energía de postcombustión de altos explosivos en espacios confinados

Díaz Sandoval, Diego Armando January 2018 (has links)
Ingeniero Civil / Cuando un alto-explosivo detona, se genera una reacción ultrasónica que libera calor y hace que los reactivos se transformen súbitamente en gases altamente presurizados. La rápida expansión de los gases resulta en la generación de una onda de choque, la cual se expande a través de un medio como el aire, para posteriormente impactar en las estructuras. El proceso de detonación involucra exclusivamente a los reactantes contenidos en el alto-explosivo, implicando que la energía de combustión liberada por la detonación se ve influenciada solamente por el contenido de oxígeno que está presente en el explosivo. En la medida que el contenido de oxígeno al interior del explosivo es bajo (explosivo deficiente en oxígeno), la combustión no se completa, generándose una postcombustión asociada a la interacción entre los productos aún inflamables de la detonación y el aire circundante. Este segundo proceso de combustión (postcombustión) es mucho más lento que el proceso de detonación y no genera una onda de choque; sin embargo, la postcombustión puede liberar una energía que es comparable a la liberada durante el proceso de detonación. Por lo tanto, la postcombustión presenta el potencial de aumentar significantemente la componente de presión de gas (cuasi-estática), en la medida que la explosión ocurra dentro de un espacio confinado. El objetivo de este trabajo consiste en determinar valores apropiados de la energía específica aportada por la postcombustión, que se debe incorporar en el software comercial AUTODYN, con el fin de obtener predicciones más confiables de la presión cuasi-estática para distintos tipos de altos-explosivos. Para ello, en una primera etapa se lleva a cabo un modelo de equilibrio termodinámico simplificado asociado a reacciones de altos-explosivos en espacios totalmente confinados sujetos a condiciones atmosféricas. 57 explosivos son estudiados, en donde los resultados obtenidos permiten determinar las presiones cuasi-estáticas, concentraciones y temperaturas residuales. Para el caso del TNT, se obtiene un ajuste adecuado en comparación con datos experimentales, donde el modelo termodinámico simplificado genera resultados levemente mayores (25%) a lo observado experimentalmente, lo cual es conservador para el diseño y suficiente, teniendo en cuenta las simplificaciones consideradas en el modelo de equilibrio termodinámico. Como segunda parte del estudio, se determina la energía de postcombustión que se debe emplear en el software AUTODYN para que la presión cuasi-estática se ajuste a los valores determinados por el modelo termodinámico simplificado. Esto se lleva cabo empleando la metodología descrita por Hernández (2016) (aplicado a TNT). Se observa que las presiones cuasi-estáticas obtenidas de las simulaciones incorporando la energía de postcombustión se ajustan al modelo termodinámico simplificado, mostrando diferencias menores a un 0.2%. En adición, se concluye que la práctica actual de considerar una carga de TNT equivalente puede ser bastante inexacta y que el método sugerido en este estudio es más adecuado para la obtención de la componente de presión de gas.
50

Associative property on the group of elliptic curves

Pérez Avellaneda, Iván 08 November 2017 (has links)
La conjetura de Fermat fue uno de los acertijos matemáticos más misteriosos hasta 1995. El problema fue formulado en 1637 por Pierre de Fermat. Él afirmó saber cómo resolverlo, sin embargo, no podía mostrar la prueba debido a que el espacio en el margen de su copia de Arithmetica de Diofanto era insuficiente. Desde entonces mucho misticismo rodeó a la conjetura. Mientras tanto, independientemente, nuevas ramas de las matemáticas se desarrollaban. La geometría algebraica y el análisis complejo permitieron a Andrew Wiles resolver finalmente la conjetura. La solución involucra, entre otras herramientas, el uso de curvas elípticas. Esto es suficiente motivo para estudiarlas. En líneas generales las curvas elípticas son polinomios cúbicos no singulares en dos variables con un punto especial de coordenadas racionales en los que podemos establecer una estructura de grupo. Para manipular las operaciones cómodamente transformamos la ecuación de la curva elíptica en una más apropiada con menos términos. Para lograr esto exploramos los aspectos fundamentales de los espacios proyectivos que facilitarían la transición. Como ya es conocido, existen casos en las matemáticas en los que hay un intercambio entre simpleza y elegancia. Uno debe profundizar un poco para alcanzar la estética. Nuestro objetivo es probar la propiedad de asociatividad del grupo en las curvas elípticas por medio del grupo de Picard de una variedad algebraica asociada. Esto provee una prueba alternativa de dicha propiedad y reemplaza los cálculos engorrosos de la prueba directa que usa solo la definición de la operación del grupo. Para lograr esto desarrollamos la teoría de divisores. Esto nos conduce al estudio de funciones racionales sobre las curvas y de este modo nos enfrentamos a uno de los resultados más importantes de la geometría algebraica: el teorema de Riemann-Roch. Basados en esto probamos que las curvas elípticas sobre los cuerpos de característica cero tienen genero uno. Finalmente definimos el grupo de Picard. Este grupo mide el grado de cuánto del conjunto de divisores no tiene origen en las funciones racionales. Luego establecemos un homomorfismo entre este grupo y la curva elíptica: esta es en una manera elaborada de afirmar que la asociatividad de una estructura se preserva en la otra. / The Fermat conjecture was one of the most mysterious puzzles of mathematics until 1995. The problem was formulated in 1637 by Pierre de Fermat. He claimed that he knew how to solve it, but was however unable to exhibit the proof because of the lack of space on the margin of his copy of Diophantus's Arithmetica. Since then a lot of mysticism surrounded the conjecture. Meanwhile, independently, new branches of mathematics were developed. Algebraic geometry and complex analysis allowed Andrew Wiles to finally solve the conjecture. The solution involves, among other tools, the use of elliptic curves. That is enough reason for their study. Roughly speaking elliptic curves are non-singular cubic polynomials in two variables with a special point of rational coordinates where a group structure can be set. In order to handle computations comfortably we transform the equation of the elliptic curve into an appropriate one with fewer terms. To achieve this goal we explore fundamental aspects of projective spaces which facilitate the transition. As it is known, in some cases there is a trade-o_ in mathematics between simplicity and elegance. One must dig a little deep to reach aesthetics. We aim to prove the associativity law of the group on elliptic curves by means of the Picard group of an associated algebraic variety. This provides an alternative proof of the property and replaces the usual burdensome computations of the straight proof by definition of the group operation. In order to achieve this, we develop the theory of divisors. This leads us to the study of rational functions on curves, and thus face one of the crucial results of algebraic geometry: the Riemann-Roch theorem. Based on this we prove that elliptic curves over fields of characteristic zero have genus one. Finally we define the Picard group. This group measures the extent of how much of the set of divisors fails to have its origin on rational functions. Then we establish a homomorphism between this group and the elliptic curve: this yields a fancy way of saying that associativy of one structure is preserved in the other. / Tesis

Page generated in 0.0214 seconds