Academic literature on the topic 'Paretův graf'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Paretův graf.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Paretův graf"

1

D’Amelio, A., A. Granata, A. De Pascalis, L. Di Lullo, F. Floccari, and F. Fiorini. "Pielonefrite acuta secondaria a fistola entero-vescicale in trapianto renale." Giornale di Clinica Nefrologica e Dialisi 22, no. 4 (January 31, 2018): 6–10. http://dx.doi.org/10.33393/gcnd.2010.1236.

Full text
Abstract:
La fistola entero-vescicale è una rara complicanza di varie malattie inflammatorie e di patologie tumorali, prevalentemente a carico del colon. La causa più frequente è rappresentata dalla diverticolite del colon-sigma. Descriviamo qui il caso di una fistola entero-vescicale comparsa in un paziente portatore di trapianto renale da donatore cadavere, esordita con i segni della pielonefrite acuta e della pneumaturia, secondaria a diverticolite del sigma pauci-sintomatica. L'ecografia del graft e della relativa via urinaria evidenziava rene di aspetto globoso con multiple aree ipoecogene parenchimali, idroureteronefrosi di II grado, presenza di fine materiale iperecogeno intrapelvico, uretere e vescica con pareti diffusamente ispessite. Veniva quindi eseguita uro-TC che confermava la pielonefrite acuta del graft ed evidenziava la presenza di livelli idroaerei in vescica e di una fistola fra sigma e parete laterale sinistra della vescica, in presenza di numerosi diverticoli del colon. La terapia antibiotica mirata con ciprofloxacina e teicoplanina, determinava significativo recupero delle condizioni generali e progressivo miglioramento del quadro clinico e laboratoristico. Successivamente, il paziente veniva sottoposto a resezione del sigma e sutura della breccia vescicale, con totale risoluzione della sintomatologia.
APA, Harvard, Vancouver, ISO, and other styles
2

Herrera Daza, Roberto. "La eficiencia y la equidad en los sectores público y privado: economía distributiva y justicia social." Administración y Desarrollo 42, no. 58 (December 15, 2013): 39. http://dx.doi.org/10.22431/25005227.112.

Full text
Abstract:
Tradicionalmente, la justicia social (equidad) no ha sido un punto focal en la economía; en su defecto, su principal preocupación ha sido el problema de la eficiencia. La mayoría de los sistemas regulatorios se proponen por lo general objetivos relacionados con la eficiencia en la asignación (precio igual al costo marginal) y el cubrimiento de costos (suficiencia financiera) por encima del criterio de equidad. La eficiencia como criterio de fijación de precios encuentra gran aceptación, en tanto que la equidad se somete a debates y discusiones.En términos generales, la eficiencia económica está relacionada con dos conceptos fundamentales: el óptimo de Pareto y el costo marginal. Una asignación es eficiente, en sentido de Pareto, cuando no es posible reasignar los recursos existentes de tal forma que alguno (algunos) mejore(n) sin que otro (otros) empeore(n). Como las reglas de eficiencia permiten caracterizar las situaciones óptimas, existe una cantidad infinita de óptimos posibles, y la elección entre estas situaciones, igualmente “eficientes”, es posible únicamente a partir de consideraciones de equidad. Pareto separa de manera contundente los criterios de eficiencia de los de equidad. Este criterio plantea una disyuntiva entre eficiencia y equidad. En general, para aumentar la equidad, debe sacrificarse una cierta cantidad de eficiencia. Pero el objetivo de la eficiencia no lo es todo ni el único, la distribución del bienestar también es fundamental.
APA, Harvard, Vancouver, ISO, and other styles
3

Vitti, Paolo. "Un consolidamento antico con inzeppature metalliche in un paramento lapideo a Iasos (Caria)." Arqueología de la Arquitectura, no. 14 (December 12, 2017): 061. http://dx.doi.org/10.3989/arq.arqt.2017.009.

Full text
Abstract:
El artículo analiza una consolidación antigua en una pared de la gran terma en Iasos de Caria. El análisis se basa en la observación del uso inusual de elementos de hierro, insertados abundantemente en las juntas de una pared del caldarium. La inspección y estudio de las características constructivas del muro permitieron identificar un deterioro del revestimiento. Este último, formado por grandes y pesados bloques apenas esbozados y no unidos al núcleo del muro, se desprendió quizás por efecto de un terremoto. El uso de la cuña de hierro para crear contraste entre las piedras de un paramento constituía una solución óptima para consolidar la mampostería sin tener que desmontar todo el revestimiento. [it] L’articolo analizza un consolidamento antico su una parete delle grandi terme a Iasos di Caria. L’analisi si basa sull’osservazione dell’impiego inconsueto di elementi di ferro, inseriti in abbondanza nei giunti di una parete del caldarium. Il rilievo e lo studio delle caratteristiche costruttive del muro hanno condotto all’identificazione di un dissesto del paramento. Quest’ultimo, formato da grandi e pesanti blocchi appena sbozzati e non ammorsati al nucleo della muratura in conglomerato, si distaccò forse per effetto di un terremoto. L’impiego di zeppe di ferro per creare contrasto tra le pietre di un paramento dissestato, costituiva una soluzione ottimale per consolidare la muratura senza dover smontare l’intero paramento.
APA, Harvard, Vancouver, ISO, and other styles
4

Candelo-Becerra, John E., Helman E. Hernández-Riaño, and Alcides R. Santander-Mercado. "Comparación de algoritmos multiobjetivo inspirados en búsqueda armónica, búsqueda cuco y murciélagos para la ubicación de generación distribuida renovable." TecnoLógicas 18, no. 35 (August 3, 2015): 105. http://dx.doi.org/10.22430/22565337.192.

Full text
Abstract:
Las pérdidas eléctricas tienen un impacto significativo en los costos totales de las redes de distribución. El uso de las energías renovables es una gran alternativa para mejorar las pérdidas y los costos, aunque también otros problemas en las magnitudes de las tensiones y la congestión de la red pueden ser mejorados. Sin embargo, determinar la mejor localización y dimensionamiento de generadores eléctricos renovables puede ser a veces una tarea difícil debido al gran número de combinaciones posibles existentes en el espacio de búsqueda. Además, el uso de funciones multiobjetivo incrementa la complejidad del problema y se prefiere usar las metaheurísticas para encontrar soluciones en un tiempo relativamente corto. En este trabajo se evalúa el desempeño de los algoritmos inspirados en búsqueda cuco, búsqueda armónica y murciélagos para la localización y dimensionamiento de la generación distribuida renovable en redes de distribución radiales, usando funciones como la minimización de las pérdidas de energía y los costos de la generación distribuida renovable. Las metaheurísticas fueron programadas en Matlab y evaluadas usando la instancia denominada red de distribución radial de 33 nodos. Los tres algoritmos evaluados obtuvieron resultados similares para los dos objetivos evaluados, encontrando Frentes de Pareto cercanos a las mejores soluciones. La comparación realizada mostró que la búsqueda cuco obtiene los mejores resultados, pero los algoritmos inspirados en murciélagos y búsqueda armónica obtuvieron resultados cercanos a la mejor solución.
APA, Harvard, Vancouver, ISO, and other styles
5

Salazar-Loor, Rodger, Javier Martínez-Gómez, Juan Rocha-Hoyos, and Edilberto Antonio Llanes-Cedeño. "Métodos Multicriterio aplicados a la parte lateral de una estructura autoportante para vehículos livianos." CienciAmérica 8, no. 2 (July 17, 2019): 59. http://dx.doi.org/10.33210/ca.v8i2.172.

Full text
Abstract:
INTRODUCCIÓN. La selección de materiales es una etapa importante en el diseño y desarrollo de productos, mediante la utilización de métodos multicriterio, es posible establecer una metodología de selección confiable, convergiendo en una solución única y fiable. OBJETIVO. Aplicar métodos multicriterio para la selección de la parte lateral estructural de un vehículo, para obtener una mayor eficiencia y rendimiento en el aprovechamiento de materiales. MÉTODOS. Mediante la metodología de Pareto y métodos multicriterio (TOPSIS, COPRAS, VIKOR, PROMETHEE II), establecer indicadores de resultados confiables para la selección de materiales estructurales en base a la comparación de criterios cuantitativos. RESULTADOS. Luego de la comparación de los métodos aplicados, se observa que todos establecen que el material del Acero Martensítico YS1200 es el más adecuado. DISCUSIÓN Y CONCLUSIONES. El material determinado tiene gran potencial en la fabricación de estructuras del vehículo, es relativamente económico y ligero, y con la tecnología adecuada es posible su implementación.
APA, Harvard, Vancouver, ISO, and other styles
6

Kim, Daniel H., Judith A. Murovic, Yong-Yeon Kim, and David G. Kline. "Surgical treatment and outcomes in 45 cases of posterior interosseous nerve entrapments and injuries." Journal of Neurosurgery 104, no. 5 (May 2006): 766–77. http://dx.doi.org/10.3171/jns.2006.104.5.766.

Full text
Abstract:
Object The authors report data in 45 surgically treated posterior interosseous nerve (PIN) entrapments or injuries. Methods Forty-five PIN entrapments or injuries were managed surgically between 1967 and 2004 at Louisiana State University Health Sciences Center (LSUHSC) or Stanford University Medical Center. Patient charts were reviewed retrospectively. The LSUHSC grading system was used to assess PIN-innervated muscle function. Injuries were caused by nontraumatic (21 PIN entrapments and four tumors) and traumatic (nine lacerations, eight fractures, and three contusions) mechanisms. Presentations included weakness in the extensor carpi ulnaris muscle, causing compromised wrist extension and radial drift; extensor digitorum, indicis, and digiti minimi muscles with paretic finger extension; extensor pollicis brevis and longus muscles with weak thumb extension; and abductor pollicis longus muscle with rare decreased thumb abduction due to substitutions of the median nerve–innervated abductor pollicis brevis muscle and, at 90°, the extensor pollicis brevis and longus muscles. Preoperative evaluations consisted of electromyography and nerve conduction studies, elbow and forearm plain x-ray films, and magnetic resonance imaging for tumor detection. At surgery, in continuity lesions were found in 21 entrapments and three fracture-related and three contusion injuries; all transmitted nerve action potentials (NAPs) and were treated with neurolysis. Five fracture-related PIN injuries, one of which was a lacerating injury, were in continuity and transmitted no NAPs; graft repairs were performed in all of these cases. Among nine lacerations, three PINs appeared in continuity, although intraoperative NAPs were absent. Two of these nerves were treated with secondary end-to-end suture anastomosis repair and one with secondary graft repair. There were six transected lacerations: three were treated with primary suture anastomosis repair, two with secondary suture anastomosis, and one with graft repair. Four tumors involving the PIN were resected. Most muscles innervated by 45 PINs had LSUHSC Grade 3 or better functional outcomes. Conclusions Forty-five PIN entrapments or injuries responded well to PIN release and/or repair.
APA, Harvard, Vancouver, ISO, and other styles
7

Choi, Angelo Earvin Sy, Cybelle Morales Futalan, and Jurng-Jae Yee. "Fuzzy Optimization on the Synthesis of Chitosan-Graft-Polyacrylic Acid with Montmorillonite as Filler Material: A Case Study." Polymers 11, no. 4 (April 23, 2019): 738. http://dx.doi.org/10.3390/polym11040738.

Full text
Abstract:
In this paper, the synthesis of a chitosan–montmorillonite nanocomposite material grafted with acrylic acid is presented based on its function in a case study analysis. Fuzzy optimization is used for a multi-criteria decision analysis to determine the best desirable swelling capacity (YQ) of the material synthesis at its lowest possible variable cost. For YQ, the integrating the result’s cumulative uncertainty is an essential element to investigate the feasibility of the developed model equation. The Pareto set analysis is able to set the appropriate boundary limits for YQ and the variable cost. Two case studies are presented in determining the lowest possible cost: Case 1 for maximum YQ, and Case 2 for minimum YQ. These boundary limits were used in the fuzzy optimization to determine its global optimum results that achieved the overall satisfaction ratings of 67.2% (Case 1) and 52.3% (Case 2). The synthesis of the polyacrylic acid/chitosan material for Case 1 resulted in 305 g/g YQ and 10.8 USD/kg, while Case 2 resulted in 97 g/g YQ and 12.3 USD/kg. Thus, the fuzzy optimization approach proves to be a practical method for examining the best possible compromise solution based on the desired function to adequately synthesize a material.
APA, Harvard, Vancouver, ISO, and other styles
8

Silva, José Plácido. "La eficiencia y la equidad en los sectores público y privado: economía distributiva y justicia social." Nova et Vetera 22, no. 66 (September 28, 2016): 81. http://dx.doi.org/10.22431/25005103.334.

Full text
Abstract:
Tradicionalmente, la justicia social (equidad) no ha sido un punto focal en la economía, en su defecto su principal preocupación ha sido el problema de la eficiencia. La mayoría de los sistemas regulatorios, se proponen por lo general objetivos relacionados con la eficiencia en la asignación (precio igual al costo marginal) y el cubrimiento de costos (suficiencia financiera) por encima del criterio de equidad. La eficiencia como criterio de fijación de precios encuentra gran aceptación, en tanto que la equidad se somete a debates y discusiones finita de óptimos posibles, y la elección entre estas situaciones, igualmente "eficientes", es posible únicamente a partir de consideraciones de equidad. Pareto separa de manera contundente los criterios de eficiencia de los de equidad. Este criterio plantea una disyuntiva entre eficiencia y equidad. En general, para aumentar la equidad, debe sacrificarse una cierta cantidad de eficiencia. Pero el objetivo de la eficiencia no lo es todo ni el único, la distribución del bienestar tambien es fundamental. Una de las formas de analizar el concepto de equidad es desde la perspectiva de los principios de beneficio y de capacidad de pago.
APA, Harvard, Vancouver, ISO, and other styles
9

Vourvopoulos, A., A. Bernardino, i. Bermúdez Badia, and J. Alves. "Eye Gaze Correlates of Motor Impairment in VR Observation of Motor Actions." Methods of Information in Medicine 55, no. 01 (2016): 79–83. http://dx.doi.org/10.3414/me14-01-0125.

Full text
Abstract:
Summary Introduction: This article is part of the Focus Theme of Methods of Information in Medicine on “Methodologies, Models and Algorithms for Patients Rehabilitation”. Objective: Identify eye gaze correlates of motor impairment in a virtual reality motor observation task in a study with healthy participants and stroke patients. Methods: Participants consisted of a group of healthy subjects (N = 20) and a group of stroke survivors (N = 10). Both groups were required to observe a simple reach-and-grab and place-and-release task in a virtual environment. Additionally, healthy subjects were required to observe the task in a normal condition and a constrained movement condition. Eye movements were recorded during the observation task for later analysis. Results: For healthy participants, results showed differences in gaze metrics when comparing the normal and arm-constrained conditions. Differences in gaze metrics were also found when comparing dominant and non-dominant arm for saccades and smooth pursuit events. For stroke patients, results showed longer smooth pursuit segments in action observation when observing the paretic arm, thus providing evidence that the affected circuitry may be activated for eye gaze control during observation of the simulated motor action. Conclusions: This study suggests that neural motor circuits are involved, at multiple levels, in observation of motor actions displayed in a virtual reality environment. Thus, eye tracking combined with action observation tasks in a virtual reality display can be used to monitor motor deficits derived from stroke, and consequently can also be used for re -habilitation of stroke patients.
APA, Harvard, Vancouver, ISO, and other styles
10

Pérez-Macías-de-Zerpa, Mildred. "Identificación prospectiva de factores en el proceso de gestión ambiental urbana de la “Estación Metro Petare”, Caracas, Venezuela." CienciaUAT 7, no. 2 (June 30, 2013): 29. http://dx.doi.org/10.29059/cienciauat.v7i2.14.

Full text
Abstract:
Los espacios públicos pertenecientes a la Parro­quia Petare, del Municipio Sucre, Región Capital Venezuela, han sido invadidos por el comercio informal, afectando la calidad del ambiente urrbano. El objetivo de esta investigación fue identificar prospectivamente, factores de la gestión ambiental urbana para el rescate de la estación de metro Petare desde el enfoque del desarrollo sostenible. Para ello, se realizaron 28 reuniones de tormenta de ideas con los representantes de los diferentes grupos sociales (80 ciudadanos) que hacen vida en el espacio público estudiado. Primero, se llevaron a cabo 8 reuniones, donde se identificaron los 35 factores de mayor influen­cia desde la perspectiva de los participantes. A partir de estos factores se realizaron 575 en­cuestas en sitio (estación de metro Petare) para establecer la influencia directa de cada uno de los actores en la problemática. Durante 10 reunio­nes realizadas, de acuerdo a los resultados de las encuestas, y aplicando la Técnica de Pareto para evaluar la clasificación directa, se obtuvieron los 16 factores más influyentes. En las últimas 10 reu­niones se aplicaron métodos prospectivos, con el fin de establecer las variables ocultas influyentes para el desarrollo de un plan de recuperación del sitio. Se encontró que tanto la sana interacción social como la restricción de comercio informal, son variables objetivo con gran potencial de via­bilidad, que permitirían la generación de un plan de gestión consensuado, sostenible en el tiempo y viable en el corto y mediano plazo en una sana gobernabilidad del espacio. La conclusión más sobresaliente, fue que la participación ciudada­na orientada a reconocer la variable ambiente, permitió la identificación de factores influyentes de gestión urbana en espacios públicos que, por diferentes razones, han sido vulnerados con actividades no acordes a su función como parte del contexto urbano.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Paretův graf"

1

Štindlová, Ivana. "Optimalizace procesu řízení interních a zákaznických reklamací ve firmě REHAU." Master's thesis, Vysoké učení technické v Brně. Fakulta podnikatelská, 2018. http://www.nusl.cz/ntk/nusl-442565.

Full text
Abstract:
The aim of this thesis is to analyze the current state of the process of internal and customer complaint management in REHAU Automotive s.r.o., Moravská Třebová. Based on the facts to make own proposals for improving the process of managing inter-nal and customer complaints, which will lead to a more efficient process, thus saving time, costs and overall improving of quality management in the company.
APA, Harvard, Vancouver, ISO, and other styles
2

Košíková, Jana. "Základní myšlenky metody Six sigma." Master's thesis, Vysoké učení technické v Brně. Fakulta strojního inženýrství, 2008. http://www.nusl.cz/ntk/nusl-228208.

Full text
Abstract:
This diploma thesis deals with a Six Sigma method, about especially analysis defects of forms for tire production company Barum Continental. In the first, theoretic part, there is the Six Sigma method, improvement method and implementation into practice defined, and at last I attended to the tools of Six Sigma method, e. g. Control Charts, Regression analysis, Pareto analysis. In the second, practical part, there is the industrial process analyzed. Then I was introduced Barum Continental spol. s.r.o. concern, which data extended. Up to data processing I was used tools of Six Sigma method and also histogram.
APA, Harvard, Vancouver, ISO, and other styles
3

Daoudi, Jalila. "Nuevos modelos y técnicas estadísticas para el estudio de datos financieros." Doctoral thesis, Universitat Autònoma de Barcelona, 2009. http://hdl.handle.net/10803/130794.

Full text
Abstract:
Nuestra línea de investigación se ha desarrollado en el ámbito de la estadística aplicada a las finanzas. Nuestro objetivo es encontrar y analizar nuevos modelos estadísticos para ajustar los datos financieros y nuevas técnicas para estudiar el comportamiento de las colas. Una aplicación destacada de este trabajo es el estudio del riesgo operacional. En los últimos años, la industria bancaria ha cambiado profundamente por los procesos de liberalización, innovación financiera y tecnológica. Esto, ha generado en las entidades financieras una evolución en el ámbito de la modelización de procesos para la medición y gestión del riesgo. El riesgo financiero se define como el impacto adverso en el rendimiento debido a diferentes fuentes de incertidubre. En la actualidad, y desde una perspectiva avanzada de riesgos, se identificarían y se cuantificarían tres tipos de riesgo: riesgo de mercado, riesgo de crédito y riesgo operacional. A diferencia de los anteriores, el riesgo operacional es un riesgo que no es producto de la toma de una posición de riesgo, tiene su origen en sucesos que no pueden ser adscritos a riesgo de mercado o a riesgo de crédito, se define como la pérdida potencial por deficiencias en los controles, por los errores en el procesamiento y almacenamiento de las operaciones o en la transmisión de información, así como por resoluciones administrativas y judiciales adversas, fraudes, robos o por factores externos. El método más reciente para la cobertura de riesgo operacional es el método de medición avanzado (AMA) que consiste en la modelización de la distribución agregada de pérdidas (Loss Distribution Approach o LDA) que se ha utilizado con éxito en el ámbito de seguros. Bajo el supuesto de que las severidades son independientes entre si e independientes de la frecuencia de los sucesos, la metodología LDA requiere la modelización por separado de la frecuencia y de la severidad. El capital regulatorio se calcula como el percentil de la distribución agregada de pérdidas para un nivel de probabilidad del 99;9%. Las fluctuaciones pronunciadas de precios conducen a serias inestabilidades en los mercados financieros. Estas perturbaciones llevan a problemas en la gestión del riesgo. En este contexto, es necesaria la modelización del comportamiento de estos precios que alcanzan valores extremos. La distribución normal no determina con suficiente precisión dicho comportamiento, lo cual obliga a recurrir a otro tipo de distribuciones de colas pesadas o semi pesadas. En el Capítulo uno, haremos una descripción de las distribuciones de colas pesadas que son distribuciones que tienen colas más pesadas que la distribución exponencial. Históricamente se han utilizado en el mundo de seguros, especificamente las distribuciones subexponenciales. En la última década, esta metodología se ha trasladado al mundo de las finanzas. De forma más amplia los mercados financieros están bajo una permanente tensión por la interacción entre la oferta y la demanda, lo cual implica fluctuaciones pronunciadas en los precios. El modelo clásico para estudiar la evolución de los precios es el modelo de Black Scholes que supone normalidad en la distribución de los precios. Los estudios empíricos, que presentan una curtosis elevada y valores extremos que no se pueden ajustar por la distribución normal, muestran que este modelo está lejos de ser adecuado. Suponiendo normalidad de la distribución de la oferta y de la demanda, y si hay tantas ofertas como demandas (mercado ideal), las transacciones siguen una mixtura de normales. En caso contrario, cuando no se aceptan de la misma manera las ofertas y las demandas las transacciones pueden seguir una mixtura de normales truncadas. En el Capítulo dos, proponemos la mixtura de normales truncadas para ajustar los datos de tipo de cambio. Es un modelo muy apropiado dado que en la práctica nos permite estudiar la no-normalidad de los datos teniendo en cuenta la asimetría de los mismos. Para ello, primero desarrollamos las propiedades de la distribución propuesta y a continuación demostramos que la función de verosimilitud tiene un máximo único y que este máximo depende del coeficiente de variación. El enfoque basado en la modelización de la distribución de severidad mediante distribuciones de colas semi pesadas tales que la distribución lognormal, la inversa gaussiana y la mixtura de normales proporcionan estimaciones robustas estables del capital regulatorio, es decir, las cifras de capital entre dos periodos sólo pueden variar por su exposición al riesgo. El enfoque basado en la teoría de valor extremo que se caracteriza por el ajuste de los valores que superan un determinado umbral con la distribución de Pareto generalizada es de mucha importancia dado que las entidades se basan únicamente sobre las pérdidas elevadas, aunque la elección de manera eficiente del umbral a partir del cual se realiza el ajuste a una distribución de Pareto es crucial para obtener valores estables de las medidas de riesgo. Varios autores estudiaron la estimación de la distribución de Pareto generalizada mediante el método de máxima verosimilitud. No obstante, los métodos numéricos no siempre tienen soluciones sobretodo cuando las muestras son pequeñas, por ello se han propuesto otros métodos tales como el método de los momentos ponderados que sólo se puede utilizar cuando el momento de orden dos es finito, y el método que consiste en estimar los parámetros a través de los estadísticos de orden. En el Capítulo tres, explicaremos los problemas destacados de la no convergencia en algunos casos de la función profile verosimilitud de la distribución de Pareto generalizada. Luego, demostraremos que la función profile verosimilitud se caracteriza por el coeficiente de variación empírico. Por último, probaremos que en el caso de la distribución de Pareto, la función de verosimilitud tiene un máximo global cuando el coeficiente de variación empírico es mayor que uno. Por otro lado, ilustramos con un ejemplo que la función de verosimilitud de la distribución de Pareto generalizada puede no tener soluciones. En el Capítulo cuatro, utilizamos la caracterización de la distribución de Pareto generalizada a través del coeficiente de variación condicionado para desarrollar una metodología previa y complementaria a los estudios paramétricos y contrastar el modelo desde un punto de vista empírico. Es un método alternativo a los métodos clásicos ME-Plot y el Hill-Plot para estudiar las colas. Además nos permite encontrar de manera eficiente el umbral a partir del cual podemos ajustar los datos por una distribución de Pareto y estimar el parámetro del peso de la cola. Por otro lado, proponemos un test de exponencialidad contra las alternativas de cola Pareto. Una de las dificultades de la distribución de Pareto generalizada es que al incluir distribuciones de soporte acotado, existen problemas de convergencia de los estimadores. Además las ecuaciones de verosimilitud para muestras pequeñas pueden no tener soluciones. Por ello, proponemos la distribucón TNP que es la unión de la normal truncada, la distribución exponencial y la distribución de Pareto como alternativa a la distribución GPD.
Our line of investigation has developed in the field of the statistical applied to the finances. Our aim is to find and analyse new statistical models to adjust the financial data and new techniques to study the behavior of the tails. An application of this work is the study of operational risk. The banking business has changed deeply by the processes of liberalization, financial and technological innovation. This, has generated an evolution in the field of modeling the processes for the measurement and the quantification of the risk. The risk of loss has his origin in events that can not be attribute to market risk or to credit risk, it is resulting from inadequate or failed internal processes, people and systems or from external events. This definition includes legal risk but excludes strategic and reputacional risk. The most recent method for hedging the operational risk is the method of advanced measurement (AMA) that consists in modeling the aggregate distribution of losses (Loss Distribution Approach or LDA) that has been used successfully in the field of insurances. assuming that the severities are independent, and, that are independent of the frequency of the events, the methodology LDA requires modeling separately the frequency and the severity. The VaR is then calculated as the percentile of the aggregate distribution of losses for a level of probability 99;9%. In the Chapter one, we give an overview on heavy-tailed distributions. Historically, it have been used in the world of insurances, specifically the distributions subexponentials. In the last decade, this methodology has moved to the world of the finances. In the Chapter two, it is shown that the prices formation mechanism may explain some amount of non-normality. Assuming normality for bid and ask prices, the observed transaction prices may be a mixture of normal distributions or a mixture of left- right truncated normal distributions, the latter case being more likely. The statistical properties of the mixture of left-right truncated normal distri- butions are developed. It is proved that there is only one maximum for the likelihood function and the maximum is closely related to the coeficient of variation. Our results show that continuity at zero of this distribution can be avoided in statistical analysis. Empirical work suggests that in financial data non-normality is also produced for a large number of values close to the mean, here referred to as ïnliers". This could explain that the Laplace approximation is often a better approach than normal distribution for daily returns. The approach based in the modeling the distribution of severity by semi weighed distributions such as the lognormal distribution, the inverse gaussian and the mixture of normal provide robust estimates estables of the VaR. The approach based in the theory of extreme value that adjust the values over an determined threshold by the generalized Pareto distribution is of importance To obtain values estables of the measures of the risk. In the Chapter three, we provide precise arguments to explain the anomalous behavior of the likelihood surface when sampling from the generalized Pareto distribution for small or moderate samples. The behavior of the profile-likelihood function is characterized in terms of the empirical coefficient of variation. A suficient condition is given for global maximum of the likelihood function of the Pareto distribution to be at a finite point. In the Chapter four, we develop a previous and complementary methodology to the parametric studies to contrast the model from a point of empirical view. New methods to decide between polynomial or exponential tails are introduced. Is an alternative method to the classical methods ME-Plot and the Hill-Plot. The key idea is based on a characterization of the exponential distribution and uses the residual coefficient of variation as a random process. A graphical method, called a CV plot, is introduced to distinguish between exponential and polynomial tails. Moreover, new statistics introduced from a multivariate point of view allow for testing exponentiality using simultaneously several thresholds. The usefulness of our approach is clearly shown with the daily returns of exchange rates between the US dollar and the Japan yen. One of the difficulties of the distribution of generalized Pareto is that include bounded distributions, there lead a problems of convergence of the estimators. Besides the likelihood functions for small samples can not having solutions. Thus, we propose the TNP distribution that is the union of the normal truncated, the exponential distribution and the distribution of Pareto and is an alternative to the distribution GPD to modeling financial data.
APA, Harvard, Vancouver, ISO, and other styles
4

Padilla, Cozar Maria. "Mètodes gràfics i estadístics per a la detecció de valors extrems." Doctoral thesis, Universitat Autònoma de Barcelona, 2016. http://hdl.handle.net/10803/368209.

Full text
Abstract:
La teoria de valors extrems (EVT) és l’única disciplina estadística que desenvolupa tècniques i models per descriure el comportament inusual en comptes de l’habitual, l’objectiu principal de la qual és l’estimació de quantils corresponents a successos molt extrems. En moltes àrees d’aplicació un requisit típic és estimar el valor en risc a un cert nivell (VaR), prou alt per a que la possibilitat de superació d’aquest sigui menor a una quantitat donada. La teoria probabilista associada a l’EVT es troba ben establerta, gràcies als resultats de Fisher i Tippet (1923), Balkema i de Haan (1974) i Pickands (1975). Dos enfocs principals van ser desenvolupats: el mètode per blocs de màxims i el mètode d’excessos sobre un llindar, l’aplicació dels quals presenta dificultats a l’hora d’aplicar eines estadístiques, Diebold et al. (1998). La determinació del llindar a partir del qual la distribució límit pot utilitzar-se i del comportament d’aquesta són els problemes principals a tractar. Per distingir les dades generals de les que són objecte d’estudi, es farà servir el concepte de cua, el qual fa referència a aquells valors que es troben per sobre d’un valor suficientment alt. Per als excessos sobre un llindar, la distribució asimptòtica que caracteritza el comportament de la cua és la Pareto Generalitzada (GPD); el seu paràmetre de forma, anomenat índex del valor extrem, permet classificar les cues en pesades, exponencials i lleugeres. L’aplicació del model GPD es pot trobar extensament detallada a McNeil et al. (2005) o Embrechts et al. (1997), però es troben limitacions, per exemple, quan no hi ha moments suficients o la subjectivitat que sorgeix quan s’utilitzen mètodes gràfics. L’objectiu d’aquesta tesi és presentar noves eines per a l’EVT, que serveixen per a la selecció de llindar i l’estimació de l’índex del valor extrem i solucionen alguns dels problemes existents. En el Capítol 1 es fa un repàs de la teoria estadística per a valors extrems. Es recorden els mètodes gràfics més utilitzats, el mean excess plot i el Hill-plot, i els mètodes d’estimació disponibles per a la GPD, finalment es presenten un nou mètode gràfic anomenat CV-plot, Castillo et al. (2014), i un enfoc aparegut recentment per a cues pesades i exponencials, Castillo et al. (2013). En el Capítol 2 s’utilitza el fet que el coeficient de variació residual caracteritza distribucions, Gupta i Kirmani (2000), per trobar el CV-plot teòric per a algunes distribucions i aplicar la teoria asimptòtica al cas de la GPD, sempre que hi hagi existència de moments d’ordre quatre. Gràcies a una transformació, presentada en el Capítol 3, el CV-plot es podrà aplicar en qualsevol situació. En el Capítol 4 es presenten uns estadístics que permeten estimar l’índex del valor extrem, contrastar la hipòtesi de GPD i s’utilitzen en un algoritme automàtic de selecció de llindars. Aquest tercer punt suposa un gran avenç per a l’aplicació del mètode Peak over Threshold, el qual requereix de l’estimació del llindar, a partir d’un mètode gràfic, i l’estimació de l’índex del valor extrem, mitjançant màxima versemblança, Coles (2001), ja que desapareix la subjectivitat de l’investigador quan s’estima el llindar. El Capítol 5 es troba dedicat a l’estudi de 16 conjunts de dades en sistemes informàtics encastats. El CV-plot i els estadístics Tm han estat utilitzats, obtenint bons resultats per a la majoria dels casos. En el Capítol 6 es tornen a aplicar les noves eines a les dades daneses sobre assegurances de focs, McNeil (1997), i les dades financeres analitzades a Gomes i Pestana (2007). Per finalitzar, en el Capítol 7 es presenten les conclusions d’aquest treball i s’exposen les noves línies de recerca que es poden seguir.
Extreme value theory (EVT) is the only statistical discipline that develops techniques and models to describe the unusual behavior instead of the usual one, the main objective of which is the quantile estimation corresponding to very extreme events. In many areas of application, a typical requirement is to estimate the value at risk (VaR), high enough to overcome the possibility that this is less than a given amount. The probability theory associated to the EVT is well-established thanks to the results of Fisher and Tippet (1923), Balkema and de Haan (1974), and Pickands (1975). Two main approaches were developed; the block maxima method and the method of the excesses over a threshold, the application of which presents difficulties in applying statistical tools, Diebold et al. (1998). The determination of the threshold from which the limit distribution can be used and its behavior are the main problems to deal with. To distinguish the general data from those which are under study, we will use the concept of tail, which refers to values that are above a sufficiently high value. For excesses over a threshold the distribution that characterizes the asymptotic behavior of the tail is the Generalized Pareto (GPD), its shape parameter, called extreme value index, classifies tails in heavy, exponential, and light. The application of the GPD model is extensively detailed in McNeil et al. (2005) and Embrechts et al. (1997), but there are limitations, for example, when there are no finite moments or the subjectivity that arises when graphical methods are used. The aim of this thesis is to present new tools for EVT, which can be used for the threshold selection and the extreme value index estimation and they solve some existing problems. Chapter 1 is a review of statistical theory for extreme values. The most used graphical methods are remembered, the mean excess plot and the Hill-plot, and the estimation methods available for GPD too. Finally, a new graphical method called CV plot, Castillo et al. (2014), and a recently appeared approach to heavy and exponential tails, Castillo et al. (2013), are presented. In Chapter 2 the fact that the coefficient of variation characterizes residual distributions, Gupta and Kirman (2000), is used to find the theoretical CV plot for some distributions and to apply the asymptotic theory to the case of GPD, provided by the existence of four finite moments. Thanks to a transformation, presented in Chapter 3, the CV-plot can be applied in any situation. Chapter 4 presents statistics that allow us to estimate the extreme value index, to contrast the hypothesis of GPD and they are used in an automated selection thresholds algorithm. This third point is a major breakthrough for the application of the method Peak over Threshold, which requires estimating the threshold from a graphical method and estimating the extreme value index through the maximum likelihood, Coles (2001), since researcher's subjectivity disappears when the threshold is estimated. Chapter 5 is dedicated to the study of 16 data sets in embedded systems. The CV plot and statistical Tm have been used, obtaining good results in most cases. In Chapter 6, we will again apply new tools to data on Danish fire insurance, McNeil (1997), and financial data analyzed in Gomes and Pestana (2007). Finally, Chapter 7 presents the conclusions of this work and the new lines of research.
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Paretův graf"

1

Kotte, Sowjanya. "Pareto Optimal Approach for Contrast Adjustment in Gray Level Images Using IDS Algorithm." In Lecture Notes in Electrical Engineering, 49–62. Singapore: Springer Singapore, 2021. http://dx.doi.org/10.1007/978-981-33-4058-9_5.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography