El Dipòsit Digital ha actualitzat el programari. Contacteu amb dipositdigital@ub.edu per informar de qualsevol incidència.

 

Tesis Doctorals - Departament - Matemàtica Econòmica, Financera i Actuarial

URI permanent per a aquesta col·leccióhttps://hdl.handle.net/2445/42108

Estadístiques

Examinar

Enviaments recents

Mostrant 1 - 20 de 33
  • logoOpenAccessTesi
    Decisiones uniperiódicas y decisiones multiperiódicas en la teoría de selección de carteras
    (Universitat de Barcelona, 1994) Sáez Madrid, José B.; Borrell, Máximo; Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial
    [spa] Este trabajo realiza, en primer lugar, un estudio y clasificación de los problemas de decisión en general, aplicándose posteriormente a la toma de decisiones en problemas uniperiódicos haciendo hincapié en los criterios de eficiencia que ayudan al sujeto decisor a eliminar alternativas no eficientes, apoyándose en la teoría de la utilidad para la toma de la decisión final. En segundo lugar, se estudia el problema específico de carteras desde la perspectiva del contexto uniperiódico de decisión, terminando con un estudio y clasificación de los modelos multiperiódicos más importantes de selección de carteras, a partir de los cuales se justifica y desarrolla, bajo ciertas hipótesis, un conjunto de modelos que se enmarcan en la línea denominada de modelos consumo-inversión multiperiódicos, y más concretamente, de aquellos que emplean funciones de utilidad cuadráticas.
  • logoOpenAccessTesi
    Análisis de las contribuciones marginales en contextos cooperativos
    (Universitat de Barcelona, 2001-06-19) Martínez de Albéniz, F. Javier; Rafels, Carles; Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial
    [spa] Dentro de la teoría de los juegos cooperativos, las contribuciones marginales han tenido una gran importancia, especialmente en la teoría normativa del vapor de Shapley. En esta tesis se analiza la envoltura convexa de estos vectores de contribuciones marginales, que se denomina conjunto de Weber. Se estudian las relaciones entre el conjunto de Weber y el conjunto de las imputaciones con diversas caracterizaciones. También la intersección de los conjuntos de Weber de juegos ordenados con el orden usual. En la segunda parte se describe el modelo de los juegos con grupos homogéneos que representa una generalización de los juegos ordinarios. Se analizan diversos conjuntos de solución, así como condiciones para que el Core sea no vacío. También se describe el valor de Shapley y el conjunto de Weber en este caso. Por último se analiza la convexidad en este modelo y se dan condiciones para encontrar juegos convexos con grupos homogéneos.
  • logoOpenAccessTesi
    Control dinámico-estocástico de la solvencia de los planes de pensiones
    (Universitat de Barcelona, 1992) Claramunt Bielsa, M. Mercè; Alegre Escolano, Antonio; Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial
    [spa] En la presente tesis se plantea y desarrolla un modelo dinámico-estocástico de planes de pensiones destinado al estudio de la solvencia de los mismos. El modelo viene calificado, en primer lugar, de estocástico pues la solvencia en una cuestión probabilística y para el estudio de la misma es necesario un planteamiento estocástico y la consideración de las variables aleatorias implicadas (nos centramos en concreto en la aleatoriedad de la mortalidad de los partícipes). En segundo lugar, el modelo se califica como dinámico pues el mismo permite el estudio de la solvencia del plan en el origen (solvencia estática) definiéndose entonces las primas recargadas, el recargo de seguridad y el coste de la solvencia; y también el estudio de la solvencia en los distintos momentos de desarrollo del plan (solvencia dinámica), definiéndose las reservas matemáticas, de solvencia, totales y las reservas libres.
  • logoOpenAccessTesi
    Essays on assignment markets: Vickrey outcome and Walrasian Equilibrium
    (Universitat de Barcelona, 2017-06-09) Robles Jiménez, Francisco Javier; Núñez, Marina (Núñez Oliva); Martínez de Albéniz, F. Javier; Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial
    [eng] This thesis is devoted mainly to the study of assignment problems in two- sided markets. The thesis is divided into three parts. The underlying objective of this division is to provide different perspectives to the analysis of allocations of indivisible objects. Essentially, we explore three distinct processes to determine allocations: the Walrasian economy in which trades are regulated by a system of prices and budget constraints, the cooperative game of exchange among coalitions of the traders, and a noncooperative approach. The second chapter of this thesis, One-seller assignment markets: core and Walrasian equilibrium is devoted to the study of markets in which there is a single seller and many buyers. The seller is the owner of multiple indivisible objects and these could be heterogeneous, e.g., houses, cars. On the other side of the market, every buyer wants to purchase a fixed amount of objects. The aim of this chapter is to study the relationship between the core of the cooperative game (see e.g., Peleg and Sudhölter, 2007) associated with the market and the set of Walrasian equilibria of the market. In general, it has been shown that in generalizations of the assignment game (Shapley and Shubik, 1972), the core and the set of payoff vectors associated with Walrasian equilibria do not coincide (see e.g., Massó and Neme, 2014). Our first result shows that the cooperative game associated with the market is buyers-submodular (Ausubel and Milgrom, 2001). As a consequence, the core is non-empty and it has a lattice structure. The most important result of this chapter offers a characterization of the coincidence between the core and the set of payoff vectors associated with the Walrasian equilibria. In the third chapter, An implementation of the Vickrey outcome with gross- substitutes, we analyze exchanges in markets with only one seller and many buyers. The seller owns a finite set of indivisible objects on sale. In this chapter, we assume that each buyer has a valuation in terms of money for each package of objects on sale. In fact, we impose a monotonic property and the Gross-substitutes condition (see e.g., Gul and Stacchetti, 1999). The purpose of this chapter is to study the strategic behavior of agents in a non- cooperative environment under the assumption of complete information. The chapter provides a non-cooperative game or mechanism in which each buyer makes a purchase offer to the seller. Then, the seller responds by selecting an allocation and a price for each package to be assigned. We show that every Subgame Perfect Nash equilibrium of the mechanism leads to a Vickrey outcome (see e.g., Vickrey, 1978 and Milgrom, 2004). That is, the allocation of the objects is efficient and each buyer receives a payoff equivalent to his marginal contribution to the whole market. In the last chapter, Axioms for the minimum Walrasian equilibrium in assignment problems with unitary demands, we consider a group of buyers who wish to purchase items on sale. In particular, each buyer can acquire at most one object and has a preference over pairs formed by an indivisible object and money. Essentially, the domain of preferences considered in this chapter includes the domain of quasi-linear preferences. It is assumed that an institution will determine a rule for the assignment of objects. Of course, a fundamental question is how to allocate the objects? In previous works such as Demange and Gale (1985) and Morimoto and Serizawa (2015), it is shown that the minimum Walrasian equilibrium as an allocation rule satisfies outstanding properties such as envy-freeness and strategy- proofness. In this chapter, we provide a new characterization for the rule that selects minimum Walrasian equilibrium in both domains, general and quasi-linear preferences.
  • logoOpenAccessTesi
    Decision Analysis, Uncertainty Theories and Aggregation Operators in Financial Selection Problems
    (Universitat de Barcelona, 2017-04-18) Yusoff, Binyamin; Ceballos Hornero, David; Merigó Lindahl, José M.; Ortí Celma, Francesc J. (Francesc Josep); Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial
    [eng] The complexity of financial analysis, particularly on selection process or decision making problems, has increased rapidly over several decades. As a result, much attention has been focused on developing and implementing the efficient mathematical models for supporting this kind of problems. Multiple criteria decision analysis, an advanced field of operations research provides analysts or decision makers a broad range of methodologies, which are all suited to the complexity of financial decision analysis. In the financial modeling, uncertainty problems are inevitable, owing to the fact that the consequences of events are not precisely known. In addition, human judgments as part of analysis also contribute to it intricacy. Correspondingly, many studies have been concentrated on integrating uncertainty theories in modeling the real financial problems. One area of interest is on the inclusion of the element of human behavior or attitudinal character of decision makers. Aggregation operator in this case can offer a wide spectrum of analysis or flexibility in modeling the human behavior in financial decision analysis. In general, the main purpose of this work is on the study of financial selection problems from the perspective of decision analysis, uncertainty theories and aggregation operators. To be specific, the decision problems under a finite or discrete case and multidimensional factors are studied. The emphasis is given on the group decision making models, notably, the Dempster-Shafer theory (DST) of belief structure, the analytic hierarchy process (AHP) and the technique for order performance by similarity to ideal solution (TOPSIS). Moreover, the uncertainty theories based on fuzzy set theory and imprecise probability are employed, together with information fusion based on the ordered weighted average (OWA) operators. Quantitative and qualitative preferences, decision strategies based on the attitudinal character of decision makers, and majority concepts for group consensus are highlighted. The specific contributions of this work are summarized as the following: • The first contribution is on developing the multi-expert multi-criteria decision making (ME-MCDM) model with respect to two-stage aggregation processes. In specific, the aggregation of criteria is based on the integration of weighted arithmetic mean (WA) and OWA. The main attention is given on the proposed alternative OWAWA operator as an extension of immediate WA and OWAWA operators. Two approaches for modeling the majority opinion of experts are studied, in which based on the induced OWA (IOWA) operators. Some modifications to the support functions are suggested as to derive the order inducing variables. The analysis of ME-MCDM model based on these aggregation processes then is conducted. In this study the selection of investment strategy is used as to exemplify the model. • The weighted-selective aggregated majority-OWA operator may be considered as the second contribution. It is as an extension of the SAM-OWA operator, where the reliability of information sources is considered. The WSAM-OWA then is generalized to the quantified WSAM-OWA by incorporating the concept of linguistic quantifier, mainly for the group fusion strategy. The QWSAM-IOWA with an ordering step is proposed for the individual fusion strategy. These aggregation operators are then implemented to the case of alternative scheme of heterogeneous group decision analysis, in particular for a selection of investment problem. • Third contribution is represented by the development of linguistic group decision making with Dempster-Shafer belief structure. Different type of linguistic aggregation operator such as the 2-tuple induced linguistic OWA operator is suggested. Specifically, it is based on order-inducing variables in which the ordering of the arguments and uncertain situations can be assessed with linguistic information. Then, by using the 2-TILOWA in the D-S framework, the belief structure-2-TILOWA operator can be formed. Some of its main properties are studied. This model is applied in a selection of financial strategies. • The extension of AHP for group decision making model is given as the fourth contribution, notably, based on the inclusion of IOWA operators. Two-stage aggregation processes used in the AHP-GDM model are extended. Firstly, a generalization of weighted maximal entropy OWA under the IOWA operator is proposed as to aggregate the criteria. Further, the majority concept based on the IOWA and Minkowski OWA-based similarity measure is suggested to determine a consensus among experts. This model provides a variant of decision strategies for analyzing the individual and the majority of experts. The application in investment selection problem is presented to test the reliability of the model. • The fifth contribution is on the integration of heavy ordered weighted geometric (HOWG) aggregation operators in AHP-GDM model. In the sense of heavy OWA operator (HOWA), the heavy weighted geometric (HWG) and HOWG are introduced as extensions of the normal weighted geometric mean (WG) and the OWG by relaxing the constraints on the associated weighting vector. These HWG and HOWG operators then are utilized in the aggregation process of AHP-GDM, specifically on the aggregation of individual judgments procedure. The main advantage of the model, besides the complete overlapping of information such in classical methods, is that it can also accommodate partial and non-overlapping information in the formulation. An investment selection problem is applied to demonstrate the model. • The extension of TOPSIS for group decision making model by the inclusion of majority concept may be considered as the sixth contribution. The majority concept is derived based on the induced generalized OWA (IGOWA) operators. Two fusion schemes in TOPSIS model are designed. First, an external fusion scheme to aggregate the experts’ judgments with respect to the concept of majority opinion on each criterion is suggested. Then, an internal fusion scheme of ideal and anti-ideal solutions that represents the majority of experts is proposed using the Minkowski OWA distance measures. The comparison of the proposed model with some other TOPSIS models with respect to distance measures is presented. Here, a general case of selection problem is presented, specifically on the human resource selection problem. • Finally, the group decision making model based on conflicting bifuzzy sets (CBFS) is proposed. Precisely, the subjective judgments of experts, mainly from positive and negative aspects are considered simultaneously in the analysis. Moreover, the weighting method for the attribute (or sub-attribute) is subject to the integration of subjective and objective weights. The synthesis of CBFS in the model is naturally done by extending the fuzzy evaluation in parallel with the intuitionistic fuzzy set. A new technique to compute the similarity measure is proposed, in which, being the degree of agreement between the experts. The model then is applied in the case study of flood control project selection problem. To sum up, the presented thesis dealt with the extension of multi-criteria decision analysis models for the financial selection problems (as a specific scope) and also the general selection problems with the inclusion of attitudinal character, majority concept and fuzzy set theory. In particular, the group decision making model, Dempster-Shafer belief structure, AHP and TOPSIS are proposed to overcome the shortcoming of the existing models, i.e., related to the financial decision analysis. The applicability and robustness of the developed models have been demonstrated and some sensitivity analyses are also provided. The main advantages of the proposed models are to provide a more general and flexible models for a wider analysis of the decision problems
  • logoOpenAccessTesi
    Essays on multi-sided assignment markets
    (Universitat de Barcelona, 2017-03-10) Atay, Ata; Núñez, Marina (Núñez Oliva); Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial
    [eng] This dissertation covers the study of assignment problems in a game theoretical framework, focusing on multi-sided assignment games and stability notions. In Chapter 2, we provide some preliminaries on assignment markets and assignment games. We give some needed definitions and crucial results with their proof. In Chapter 3, a generalization of the classical three-sided assignment market is considered, where value is generated by pairs or triplets of agents belonging to different sectors, as well as by individuals. For these markets we represent the situation that arises when some agents leave the market with some payoff by means of a generalization of Owen (1992) derived market. Consistency with respect to the derived market, together with singleness best and individual anti-monotonicity, axiomatically characterize the core for these generalized three-sided assignment markets. When one sector is formed by buyers and the other by two different type of sellers, we show that the core coincides with the set of competitive equilibrium payoff vectors. In Chapter 4, we consider a multi-sided assignment game with the following characteristics: (a) the agents are organized in m sectors that are connected by a graph that induces a weighted m-partite graph on the set of agents, (b) a basic coalition is formed by agents from different connected sectors, and (c) the worth of a basic coalition is the addition of the weights of all its pairs that belong to connected sectors. We provide a sufficient condition on the weights to guarantee balancedness of the related multi-sided assignment game. Moreover, when the graph on the sectors is cycle-free, we prove the game is strongly balanced and the core is described by means of the cores of the underlying two-sided assignment games associated with the edges of this graph. Moreover, once selected a spanning tree of the cycle-free graph on the sectors, the equivalence between core and competitive equilibria is established. In Chapter 5, we focus on two-sided assignment games. Solymosi and Raghavan (2001) characterizes the stability of the core of the assignment game by means of a property of the valuation matrix. They show that the core of an assignment game is a von Neumann-Morgenstern stable set if and only if its valuation matrix has a dominant diagonal. Their proof makes use of some graph-theoretical tools, while the present proof relies on the notion of buyer-seller exact representative in Núñez and Rafels (2002). In Chapter 6, we study von Neumann-Morgenstern stability for three-sided assignment games. Since the core may be empty in this case, we focus on other notions of stability such as the notions of subsolution and von Neumann-Morgenstern stable sets. The dominant diagonal property is necessary for the core to be a stable set, and also sufficient in case each sector of the market has only two agents. Furthermore, for any three-sided assignment market, we prove that the union of the extended cores of all mu- compatible subgames, for a given optimal matching mu, is the core with respect to those allocations that are compatible with that matching, and it is always non-empty.
  • logoOpenAccessTesi
    Rationing problems: Extensions and Multi-issue analysis
    (Universitat de Barcelona, 2016-11-08) Timoner Lledó, Pere; Izquierdo Aznar, Josep Maria; Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial
    [eng] This thesis concerns itself with the study of situations in which a group of agents lay separate claims to a scarce resource. These situations are as old as the discipline of economics itself; indeed, a number of ancient documents including the works of Aristotle, the essays of Maimonides and the Babylonian Talmud address this very old problem. Despite the ancient nature of these texts, these situations were not tackled formally until the early eighties by O'Neill (1982), who provided an extremely simple mathematical model to explain a wide variety of economic problems, including, among others, the assignment of taxes, bankruptcy, the distribution of emergency supplies and cost-sharing of a public good. In general we can refer to these situations as problems of adjudicating conflicting claims or (standard) rationing problems. The present study seeks to enrich rationing problems from different perspectives: * In Chapter 2 we introduce an extension of the standard rationing model, in which agents are not only identified by their respective claims to some amount of a scarce resource, but also by some exogenous ex-ante conditions (initial stock of resource or net worth of agents, for instance), other than claims. The essence of this chapter is that those agents who have less (with a worse ex-ante condition) should somehow be given some priority over those who have more (with a better ex-ante condition). Within this framework, we define a generalization of the constrained equal awards rule and provide two different characterizations of this generalized rule. Finally, we use the corresponding dual properties to characterize a generalization of the constrained equal losses rule. * In Chapter 3 we present a variant of the multi-issue rationing model, where agents stake their claim for several issues. In this variant, the amount of resource available for each issue is constrained to a quantity fixed a priori according to exogenous criteria. The aim is to distribute the amount corresponding to each issue while taking into account the allocation for the remaining issues (issue-allocation interdependence). We name these problems constrained multi-issue allocation situations (CMIA). In order to solve these problems, we first reinterpret some single-issue (standard) egalitarian rationing rules as a minimization program based on the idea of finding a feasible allocation that lies as close as possible to a specific reference point. We extend this family of egalitarian rules to the CMIA framework. Specifically, we extend the constrained equal awards rule, the constrained equal losses rule and the reverse Talmud rule to the multi-issue rationing setting, which are found to be particular cases of a family of rules, namely the extended α-egalitarian family. This family is analysed and characterized by using consistency principles (over agents and over issues) and a property based on the Lorenz-dominance criterion. * Finally, in Chapter 4 we consider how to solve a rationing problem in which the resource cannot be directly assigned to agents. We propose a two-stage procedure in which the resource is first allocated to groups of agents and then divided among their members. We name these situations decentralized rationing problems. Within this framework, we define extensions of the constrained equal awards, the constrained equal losses and the proportional rules. We show that the first two rules do not preserve certain essential properties and prove the conditions under which both rules do preserve those properties. We characterize the extension of the proportional rule as the only solution that satisfies individual equal treatment of equals. Furthermore, we prove that the proportional rule is the only solution that assigns the same allocation regardless of whether the resource is distributed directly to agents or in a decentralized manner (with agents grouped). Finally, we analyse a strategic game based on decentralized rationing problems in which agents can move freely across groups to submit their claims.
  • logoOpenAccessTesi
    Hedge Funds: Inferencia del riesgo en un escenario real de estrés severo
    (Universitat de Barcelona, 2016-01-15) Martínez Buixeda, Raül; Alegre Escolano, Antonio; Sáez Madrid, José B.; Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial
    La expansión de la industria de los hedge funds a lo largo del presente siglo ha sido extraordinaria, especialmente hasta el estallido de la crisis subprime. Según estimaciones de HFR publicadas por CAIA en 2014 los activos bajo gestión de single hedge funds y fund of hedge funds pasaron de 456,43 millardos de USD en 1999 a 1,87 billones de USD en 2007. La exposición de los hedge funds a factores de riesgo no convencionales, con distribuciones de rentabilidad poco habituales en la industria de la gestión tradicional, y su alto grado de opacidad, han propiciado un aumento sustancial de la tecnicidad del portfolio risk management y la proliferación de opiniones poco rigurosas en la materia. El escenario de estrés proporcionado por la crisis subprime (agosto 2007 -septiembre 2009), permite contrastar y completar el verdadero trade-off rentabilidad-riesgo del universo de los hedge funds. En este sentido, para inferir el comportamiento del riesgo de las distintas estrategias hedge a escenarios de estrés similares al acaecido durante la crisis subprime, la presente tesis propone: 1) ajustar a las distribuciones empíricas de rentabilidad una mixtura de dos Normales estimada a partir del método de los momentos, y 2) analizar el comportamiento del riesgo extremo y el riesgo absolute return. Dado que las muestras vinculadas al periodo subprime, el cual es acotado por la evolución de las componentes del TED spread, son relativamente pequeñas y en ocasiones están distribuidas de forma "extrema", se hace imprescindible la estimación no sesgada de los momentos muestrales (incluido el momento central de quinto orden). Además, para poder completar el proceso de inferencia, ha sido necesario iniciar desde múltiples orígenes el proceso iterativo de búsqueda de soluciones, discriminar las soluciones obtenidas a partir de propiedades de la combinación lineal convexa de las mixturas, y agrupar las estrategias en función del riesgo utilizando la metodología K-means. Por último, la tesis aborda el análisis de la dinámica del riesgo hedge donde se examinan las diferencias de comportamiento del riesgo extremo y del riesgo absolute return entre el periodo pre-subprime (referencia del periodo en ausencia de estrés severo) y el periodo subprime.
  • logoOpenAccessTesi
    Modelos basados en distancias con aplicación a la gestión del riesgo en el ámbito actuarial
    (Universitat de Barcelona, 2015-11-20) Costa Cor, Teresa; Boj del Val, Eva; Fortiana Gregori, Josep
    [spa] El trabajo se centra en el estudio de metodologías estadísticas para la solución de problemas reales de las carteras de seguros no vida. Se describe a nivel teórico el Modelo Lineal Generalizado, que ya se aplica en la literatura actuarial en tarificación, credit scoring y cálculo de provisiones. Se describen teóricamente los modelos de regresión basados en distancias y se propone el Modelo Lineal Generalizado Basado en Distancias como una metodología alternativa para dar solución a los problemas expuestos. Para la obtención de resultados numéricos utilizando datos de carteras de seguros no vida se hace uso del software R y cabe destacar la librería dbstats, en la que se han implementado los modelos de regresión basados en distancias. Se definen coeficientes de influencia locales para el Modelo Lineal Generalizado Basado en Distancias que permiten medir la importancia relativa de cada variable observada en la siniestralidad esperada. Se definen coeficientes de influencia para predictores cuantitativos y para predictores cualitativos o binarios. Se construyen intervalos de confianza para los coeficientes de influencia basados en el percentil de la distribución bootstrap a partir de una adaptación del test de Wald. Se incluye una aplicación práctica con datos de seguro a terceros de automóviles de Suecia en el problema de tarificación para calcular los coeficientes de influencia y construir intervalos de confianza para contrastar su significación. Se estudia la aplicación del modelo de regresión logística basado en distancias en credit scoring para estimar las probabilidades de insolvencia de los nuevos clientes que soliciten un crédito. Para elegir el modelo de credit scoring se consideran dos criterios: las probabilidades de mala clasificación de los individuos y el coste de error. El objetivo es minimizar la probabilidad de mala clasificación de los nuevos individuos para evitar conceder un crédito a un mal riesgo de crédito o denegarlo a un buen riesgo de crédito y analizar los costes de dicha clasificación incorrecta. Se proponen distintas maneras de elegir el punto de corte adecuado para unos datos en el modelo de regresión logística basado en distancias. Se realiza una aplicación con datos de riesgo de crédito de una entidad financiera australiana y de una entidad financiera alemana y se comparan los resultados obtenidos con otras metodologías de credit scoring que han sido propuestas por diversos autores en el problema de riesgo de crédito. Se describen los principales métodos de cálculo de la provisión de siniestros pendientes en los seguros no vida, tanto deterministas como estocásticos. Se propone la aplicación del Modelo Lineal Generalizado Basado en Distancias para estimar los pagos futuros que deberá realizar la entidad aseguradora. Se deduce la formulación relativa al error de predicción cometido en los pagos futuros por años de calendario a partir de una expresión analítica y a partir de bootstrap. Por último, se definen diferentes formas de incluir márgenes de riesgo en el cálculo de provisiones teniendo en cuenta el contexto de la Directiva Europea Solvencia II. Se utilizan unos datos de importes de siniestros pagados durante diez años que han sido usados por diversos autores en sus aplicaciones prácticas dentro de la literatura actuarial y se estiman los pagos futuros que sirven de base para calcular la provisión incluyendo márgenes de riesgo con sentido estadístico.
  • logoOpenAccessTesi
    Análisis del caos en series temporales financieras vía el estudio de atractores
    (Universitat de Barcelona, 2013-12-13) Gil Doménech, Maria Dolors; Alegre Escolano, Antonio
    [spa] La tesis consiste en la proposición de una metodología para la búsqueda de caos vía el análisis de atractores, con el objetivo de determinar si diversas series financieras presentan comportamientos caóticos. El estudio se realiza mediante la aplicación de algoritmos que testan las propiedades del caos en series temporales. La teoría del caos permite atribuir reglas deterministas a fenómenos aparentemente aleatorios. Gracias al determinismo inherente a los sistemas caóticos es posible, dentro de un cierto rango, hacer predicciones sobre su comportamiento a corto plazo. Sin embargo, esta predictibilidad desaparece a medio y largo plazo, dado que una de las características principales de los sistemas caóticos es su sensibilidad a las condiciones iniciales, por la cual una pequeña modificación de estas condiciones produce importantes cambios en el sistema con el paso del tiempo. De lo anterior se deriva la importancia que tiene la búsqueda de caos en los mercados financieros, ya que el paso de una concepción de mercado aleatoria a una caótica justificaría el uso de técnicas de previsión a corto plazo. Un sistema caótico se caracteriza por tener órbitas densas, ser topológicamente transitivo y ser sensible a las condiciones iniciales. Las dos primeras características implican la presencia de un atractor, esto es, una zona del espacio hacia la que tienden las trayectorias del sistema. Por su parte, la sensibilidad a las condiciones iniciales hace que las trayectorias se muevan de un modo impredecible a medio y a largo plazo dentro del atractor, y que este pueda calificarse de caótico. Así, dado que un sistema se considera caótico si presenta un atractor caótico, en la tesis se estudia el sistema financiero desde una perspectiva caótica, y para ello se propone una metodología que pretende analizar la presencia de este tipo de atractor en series temporales, y que consiste en la aplicación de algoritmos que testan las características de los sistemas caóticos. Para detectar la presencia de órbitas densas el algoritmo propuesto se basa en el “test de diferencias cercanas”. La transitividad topológica se analiza a través de un algoritmo propio. Por último, el algoritmo usado para testar la sensibilidad a las condiciones iniciales se basa en el estudio de los valores propios de la matriz de cambio de estado.
  • logoOpenAccessTesi
    Heterogeneous discounting. Time consistency in investment and insurance models
    (Universitat de Barcelona, 2012-01-18) De Paz Monfort, Abel; Marín Solano, Jesús; Navas, Jorge; Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial
    [eng]In Chapter 2 we extend the heterogeneous discounting model introduced in Marín-Solano and Patxot (2012) to a stochastic environment. Our main contribution in this chapter is to derive the DPE providing time-consistent solution for both the discrete and continuous time case. For the continuous time problem we derive the DPE following the two different procedures described above: the formal limiting procedure and the variational approach. However, an important limitation of these approaches is that the DPE obtained is a functional equation with a nonlocal term. As a consequence, it becomes very complicated to find solutions, not only analytically, but also numerically. For this reason, we also derive a set of two coupled partial differential equations which allows us to compute (analytically or numerically) the solutions for different economic problems. In particular, we are interested in analyzing how time-inconsistent preferences with heterogeneous discounting modify the classical consumption and portfolio rules (Merton (1971)). The introduction of stochastic terminal time is also discussed. In Chapter 3, the results of Chapter 2 are extended in several ways. First, we consider that the decision maker is subject to a mortality risk. Within this context, we derive the optimal consumption, investment and life insurance rules for an agent whose concern about both the bequest left to her descendants and her wealth at retirement increases with time. To this end we depart from the model in Pliska and Ye (2007) generalizing the individual time preferences by incorporating heterogeneous discount functions. In addition, following Kraft (2003), we derive the wealth process in terms of the portfolio elasticity with respect to the traded assets. This approach allows us to introduce options in the investment opportunity set as well as to enlarge it by any number of contingent claims while maintaining the analytical tractability of the model. Finally, we analyze how the standard solutions are modified depending on the attitude of the agent towards her changing preferences, showing the differences with some numerical illustrations. In Chapter 4 we extend the heterogeneous discount framework to the study of differential games with heterogeneous agents, i.e., agents who exhibit different instantaneous utility functions and different (but constant) discount rates of time preference. In fact, although the non-standard models have usually focused on individual agents, the framework has proved to be useful in the study of cooperative solutions for some standard discounting differential games. Our main contribution in this chapter is to provide a set of DPE in discrete and continuous time in order to obtain time-consistent cooperative solutions for $N$-person differential games with heterogeneous agents. The results are applied to the study of a cake eating problem describing the management of a common property exhaustible natural resource. The extension to a simple common renewable natural resource in infinite horizon is also discussed. Finally, in Chapter 5, we present a summary of the main results of the thesis.
  • logoOpenAccessTesi
    Fundamentos metodológicos para el análisis económico en contexto de incertidumbre
    (Universitat de Barcelona, 1988-01-01) Ramírez Sarrió, Dídac, 1946-; Rodríguez Rodríguez, Alfonso (Alfonso Melitón); Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial
    [spa] La importancia creciente que la incertidumbre tiene en economía no se ha visto correspondida por una atención suficiente a las cuestiones de fundamentación, desde el punto de vista conceptual, lógico y eidométrico. La tesis tiene por finalidad: I) Paliar la inconsistencia conceptual sobre la incertidumbre; II) Orientar la elección de la lógica más apropiada en contexto de incertidumbre; III) Profundizar en el estudio de la valoración y medida de la incertidumbre, determinando el papel de la probabilidad y atendiendo a las diferentes modalidades que puedan presentarse. La determinación de los fines conduce a estructurar la tesis en tres partes: Fundamentos conceptuales, lógicos y eidométricos respectivamente, con tres capítulos cada una. La primera parte se ocupa del análisis de la noción de incertidumbre (Cap. I), de sus modalidades (Cap. II) y de sus causas (Cap. III). Partiendo de la definición del léxico, se progresa en el análisis que nos permite distinguir la incertidumbre óntica de la epistémica, y dentro de ésta, la objetiva de la subjetiva, así como cuatro modalidades de conocimiento imperfecto: probable, vago, aproximado e inexacto. La segunda parte se ocupa de la descripción semántico-formal de las lógicas divergentes más significativas desde el punto de vista de la ciencia económica (Cap. IV), y del análisis metalógico de las mismas (Cap. V y VI). La tercera parte desarrolla los conceptos para proveer de una estructura lógica y métrica para valorar los distintos tipos de incertidumbre (Cap. VII), discute la noción de probabilidad y su conexión con el conocimiento probable (Cap. VIII), y estudia las nociones de proximidad a la verdad, verdad parcial y verdad inexacta como conceptos básicos para la valoración y medida del conocimiento aproximado e inexacto. Por último, el Cap. IX (Semejanza con la verdad) aborda conceptos tales como la noción de información y su proximidad a la verdad, la verdad parcial, la inexactitud de la verdad y la medida del grado de inexactitud epistémica que corresponde al conocimiento aproximado e inexacto. Un apartado destinado a recoger las conclusiones obtenidas, otro recogiendo la bibliografía y un índice general completan el contenido de la presente tesis.
  • logoOpenAccessTesi
    Fuentes de Riesgo en los Fondos de Inversión Libre ("Hedge Funds")
    (Universitat de Barcelona, 2009-01-19) Brun Lozano, Xavier; Esteve Comas, Jordi; Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial
    [spa] Los fondos de inversión han permitido, desde sus orígenes, canalizar el exceso de capital o ahorro de distintos agentes económicos hacia los demandantes de capital. En España este vehículo se popularizó en los años noventa y su crecimiBrun Lozano,ento ha sido notorio, pasando de gestionarse 5,3 millones de euros a diciembre de 1989 a casi 260 millones de euros a junio de 2007. Este incremento ha provocado que se haya popularizado esta vía de inversión y con ello un incremento del nivel de conocimientos financieros por parte de los agentes económicos.El aumento de la cultura financiera ha permitido al regulador incorporar una nueva figura de inversión, con mayor complejidad inversora que las demás figuras, denominada Instituciones de Inversión Colectiva de Inversión Libre o, como se la conoce en el sector, "Hedge Funds". Esta figura permite a los ahorradores tener un producto más para elegir e invertir su dinero. El regulador, por su parte, también especifica qué requisitos han de tener las Sociedades Gestoras de Instituciones de Inversión Colectiva que desean lanzar un fondo de estas características. Entre otros requisitos cabe destacar el análisis del riesgo que recae en el Departamento de Control de Riesgos de dichas gestoras. No obstante, no especifica qué mecanismos pueden utilizar para medirlos así como las posibles fuentes de éstos.El Reglamento de Ley 35/2003 de 4 de noviembre, de Instituciones de Inversión Colectiva introdujo, entre otros aspectos, la regulación de las Instituciones de Inversión Colectiva de Inversión Libre o IICIL, tanto si la IICIL se enmarca en la figura Fondo de Inversión o de Sociedad de Inversión. Este hecho ha despertado el interés por parte de los inversores a esta tipología de fondos. No obstante, el caso español no es aislado porque otros países ya hicieron lo mismo con su regulación. Según el informe de 2003 publicado por la asociación Inverco en tan solo 5 años se han publicado regulaciones o se están presentando proyectos normativos en Italia (1999), Francia (2003), Luxemburgo (2002), Hong Kong (2002), Suecia (2002) o Alemania (2003).De la necesidad normativa nace la posibilidad de estudio de la industria de los "Hedge Funds", concretamente en el marco de la valoración del riesgo que permita dar información al partícipe sobre el grado real de riesgo asumido en cada fondo. Por este motivo, el objetivo general de la tesis es el estudio de las fuentes del riesgo en los Fondos de Inversión Libre. Con este objetivo, se pretende aportar conocimiento específico acerca de distintas fuentes de riesgo que permitan saber un poco más sobre el sector de los Fondos de Inversión Libre o Hedge Funds. De igual modo, esta tesis pretende exponer fuentes de riesgo que ayuden a los inversores a determinar el verdadero nivel de riesgo de estos fondos; Purcell y Crowley (1999) y Horwitz (2004) expusieron cuáles eran las fuentes de riesgo de los Fondos de Inversión Alternativa o Hedge Funds aunque sin profundizar en el estudio concreto de cada una de ellas. Las fuentes de riesgo que definieron fueron: riesgo de mercado, riesgo específico del activo, riesgo de liquidez, riesgo de endeudamiento, riesgo de crédito, riesgo operacional y riesgo sistémico. Estas fuentes de riesgo hacían referencia a los fondos en general sin incidir en ninguna estrategia en concreto.En base al objetivo general de estudiar las distintas fuentes de riesgo, esta tesis se centrará en el estudio de cinco fuentes de riesgo posiblemente presentes en los fondos domiciliados en Europa de la estrategia Largo Corto en Acciones. Concretamente, dichas fuentes de riesgo son riesgo de liquidez, riesgo de endeudamiento, riesgo sistémico, riesgo de tamaño y riesgo de persistencia. Las razones de centrar el estudio en dichas fuentes son varias: el poco estudio realizado en algunas de las fuentes de riesgos, como en el caso del riesgo de liquidez, el de tamaño o el de persistencia; la importancia que tienen estos riesgos en el fondo, como el riesgo de endeudamiento o sistémico; y porque estas cinco fuentes parecen agrupar la mayoría de los riesgos inherentes en la inversión en un "Hedge Fund".
  • logoOpenAccessTesi
    Further Investigations into the Anomalies of Rational Intertemporal Choice
    (Universitat de Barcelona, 2009-06-23) Loewe Durall, Germán; Rafels, Carles; Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial
    [spa] Cuando suena por primera vez el despertador, muchos de nosotros apretamos el botón de "posponer alarma" ("snooze", según la expresión inglesa, que significa echar una cabezadita). Esta decisión tiene detrás un razonamiento parecido al siguiente: "ahora mismo no soy capaz de levantarme, pero lo haré dentro de 5 minutos". En realidad, transcurrido este (corto) lapso de tiempo, el comportamiento más común es volver a apretar el botón otra vez. Y normalmente esta lucha con uno mismo puede durar 2 ó 3 asaltos más, hasta que llegamos a la hora máxima que nos podemos permitir. Ante este comportamiento la pregunta que, como economistas interesados en la toma de decisiones humanas, nos debemos hacer es la siguiente: ¿hay algo erróneo en este hábito? ¿Se trata acaso de un comportamiento irracional, anómalo? Y, en consecuencia, ¿debería una teoría normativa rechazarlo, excluirlo como posibilidad?La respuesta que da a este problema la teoría estándar de la elección intertemporal es sí, el comportamiento descrito es rechazable, es anómalo, esto es, no es propio de alguien enteramente racional, al menos tal como los economistas hemos entendido la racionalidad durante mucho tiempo. La irracionalidad consiste precisamente en el hecho de que supone una discrepancia con uno mismo, algo que nuestra intuición ética más elemental nos dice que es malo (aunque, dicho sea de paso, no sepamos muy bien por qué). Para ser racionales -diría la ortodoxia económica-, lo que deberíamos hacer es una de las dos siguientes cosas: o bien ser más realistas la noche anterior y programar la alarma para más tarde, quizás incluso para esa hora límite; o bien, ser consecuentes con la hora programada, y levantarnos a la primera. Resulta interesante comprobar que, en cualquiera de los dos casos, de lo que se trata es de salvaguardar la consistencia en la toma de decisiones de la persona: si preferías una cosa la noche anterior, no deberías pasar a preferir otra cosa distinta unas cuantas horas más tarde.Comentaré más adelante si esta respuesta que da la teoría económica está realmente justificada, porque ahora quiero detenerme a comentar la función que ha tenido esta "anomalía", este supuesto "error del comportamiento humano", en la evolución de la teoría estándar de la elección intertemporal. Es llamativo ver hasta qué punto esta teoría está fundamentada sobre el precepto que nos dice que deberíamos mantener estables nuestras preferencias, nuestras decisiones. Ciertos economistas de la primera mitad del siglo XX -como Samuelson o Debreu- revisaron la noción de utilidad del siglo anterior -debida a Bentham y otros-, y, apoyándose en los primeros análisis del impacto del tiempo en la toma de decisiones económicas -debidos a Rae, Jevons, Böhm-Bawerk y otros-, modelizaron matemáticamente el comportamiento económico intertemporal como la optimización de la suma ponderada de las utilidades de los diferentes periodos. Y, aunque para dicha modelización cabían en realidad múltiples soluciones, Paul Samuelson propuso en 1937 una concreción del modelo según la cual las utilidades de cada periodo se ponderarían conforme a un factor de descuento exponencial. Poco más tarde, Robert Strotz demostraría que el factor de descuento exponencial de Samuelson era en realidad el único que garantizaba la consistencia dinámica de las decisiones temporales, y, por lo tanto, el que debería adoptarse para un modelo normativo de elección intertemporal (que estuviera basado en la optimización de la suma de utilidades ponderadas). La ciencia económica creyó entonces haber encontrado no sólo un modelo verdadero en sentido normativo, sino también verdadero en el sentido positivo, ya que -se decía- las personas actúan en general en beneficio propio, y por lo tanto, lo harán aproximadamente siguiendo las recomendaciones del modelo normativo, ya que así se protegerán de los males de la inconsistencia dinámica.El blindaje ante la anomalía de la inconsistencia dinámica constituyó, por lo tanto, el fundamento de la teoría del descuento exponencial como teoría normativa estándar, y esta teoría, a su vez, se convirtió -en esta tesis explicaré cómo- también en la teoría positiva estándar de la elección intertemporal. Hoy sabemos que en esta secuencia de razonamientos hay numerosos fallos, ya que el comportamiento real de las personas difiere de múltiples maneras del que predice el modelo de Samuelson, y la literatura de referencia contiene numerosísimos artículos detectando otras 'anomalías', término con el que la disciplina designa comportamientos incompatibles con la teoría del descuento exponencial.Es claro, pues, que el andamiaje de este modelo de elección intertemporal racional se ha desplomado en los últimos años, y nuestra labor es reconstruirlo; o, mejor dicho, construir uno nuevo. La tesis que aquí se presenta pretende contribuir a esta tarea, y, para hacerlo, pretende investigar en mayor profundidad estas -mal llamadas- anomalías del comportamiento intertemporal racional. ¿Por qué investigar precisamente las anomalías de un modelo fallido? Porque comprender bien estas anomalías y los múltiples modelos alternativos a los que han dado lugar es la mejor manera de explorar el camino hacia un nuevo y mejorado modelo de elección intertemporal; considero que los "fallos" o "errores" en la teoría son el punto de partida más natural de un programa de investigación que pretenda contribuir a la tarea de comprender la toma de decisiones temporales. Además, el proyecto de alcanzar una mejor comprensión de la toma de decisiones temporales está estrechamente ligado al más ambicioso proyecto de comprender los determinantes del bienestar individual, algo que considero uno de los más urgentes asuntos que las ciencias sociales tienen pendientes de resolver. 'El bien del hombre debe ser la finalidad última de la ciencia política', como ya dejó establecido Aristóteles. Y, sin embargo, en ciencias sociales todavía no sabemos con precisión qué es el bien del hombre.Esta tesis está organizada de la siguiente manera. En el primer capítulo se presenta una revisión en profundidad de la teoría de la utilidad descontada en tanto que modelo estándar de elección intertemporal racional, y se presentan también todas las anomalías presentes en la literatura. El segundo capítulo aborda una cuestión de gran importancia, y sobre la cual no se conocían estudios empíricos hasta la fecha. La cuestión es la siguiente: desde la aparición del artículo de Thaler (1981), se acepta como demostrada la existencia de dos anomalías muy famosas claramente presentes en los experimentos de Thaler: el descuento excesivo y el descuento hiperbólico. Por si fuera poco, la aparición posterior de numerosos trabajos empíricos reproduciendo estas anomalías una y otra vez ha contribuido a reforzar esta convicción entre prácticamente todos los investigadores. Pues bien, la investigación que presento en el capítulo 2 pretende verificar la aparente robustez de estas anomalías, mediante una serie de experimentos que modifican el método de medición de las tasas de descuento temporal. Los experimentos se realizaron sobre una amplia muestra aproximadamente representativa de la población española, y presentaban una serie de decisiones intertemporales a los participantes mediante un cuestionario online. El capítulo 3º estudia por primera vez las preferencias sobre secuencias constantes. Hasta hoy se habían estudiado preferencias anómalas relativas a secuencias de pagos que eran crecientes o decrecientes, o que tenían alguna forma particularmente determinante para las preferencias, como por ejemplo las secuencias 'con final feliz' (esto es, en las que el mayor de los pagos está ubicado en última posición), pero todavía nadie había estudiado empíricamente las secuencias de pagos constantes (todos los pagos de igual importe) por sí mismas, como actor principal. Sin embargo, y tal como argumento en este capítulo, las secuencias constantes son un objeto de estudio excelente para contrastar modelos de elección intertemporal, por lo que considero que esta parte de la tesis es únicamente el inicio de lo que espero sea un proyecto de investigación de más alcance en un futuro próximo.La tesis termina con la presentación de una serie conclusiones y una reflexión final. De ésta se extraen las implicaciones últimas de los diferentes descubrimientos que presenta la tesis, tanto de cara a encontrar una nueva teoría positiva de la elección intertemporal, como también de cara a considerar incluso una nueva teoría normativa de la elección intertemporal.
  • logoOpenAccessTesi
    Valoración de proyectos de inversión en economías emergentes latinoamericanas: el caso de los inversionistas no diversificados
    (Universitat de Barcelona, 2007-03-26) Mongrut Montalván, Samuel; Ramírez Sarrió, Dídac, 1946-; Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial
    [spa] La evaluación de proyectos por lo general evita el importante proceso de análisis del riesgo porque se basa en el supuesto de los mercados completos. En un mercado completo se pueden encontrar activos gemelos o elaborar una cartera de inversiones dinámica para replicar el riesgo del proyecto todo estado de la naturaleza y momento futuro. Además, dado que se supone que los inversionistas están bien diversificados, lo que importa es el valor del proyecto como si éste se negociara en el mercado de capitales. Desafortunadamente, el supuesto de mercados completos se satisface difícilmente en la realidad, sobre todo en los mercados emergentes abundantes en títulos ilíquidos y donde los mecanismos financieros, como las ventas en corto o las compras en el margen, están prohibidos o son inexistentes en la práctica. En este trabajo se asumen mercados incompletos y se sugiere un procedimiento de análisis de riesgo que puede aplicarse toda vez que no sea posible replicar el riesgo del proyecto a partir de títulos transados en el mercado bursátil, específicamente en dos situaciones: cuando los inversionistas mantienen una cartera de inversiones diversificada y cuando los inversionistas son empresarios no diversificados. El primer caso es importante porque durante el pasado decenio se ha observado un aumento de la inversión directa extranjera en los países emergentes, de modo que algunos empresarios globales bien diversificados han colocado su dinero en estos mercados. El segundo caso es particularmente importante para los mercados emergentes donde una gran porción del total de empresas está integrada por negocios familiares o que son propiedad de un solo empresario no diversificado. En ambos casos se puede emplear una regla de inversión clara, como el valor presente neto, pero no existe un valor de mercado único para el proyecto. En el caso de los inversionistas globales bien diversificados es posible encontrar el valor del proyecto dentro de un rango de posibles valores; mientras que para los empresarios no diversificados lo que importa es el valor del proyecto dado el riesgo total que enfrentan.PALABRAS CLAVE: Evaluación de proyectos, mercado incompleto, análisis de riesgo.
  • logoOpenAccessTesi
    Política de dividendos en una cartera de seguros no vida: Un análisis desde la teoría colectiva del riesgo
    (Universitat de Barcelona, 2002-03-14) Mármol, Maite; Alegre Escolano, Antonio; Claramunt Bielsa, M. Mercè; Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial
    [spa] El análisis de la solvencia en las carteras de seguros no vida es un tema que ha sido muy tratado en la literatura actuarial generando una amplia bibliografía. Las hipótesis y los riesgos analizados han ido ampliándose, incluyéndose, ya no sólo el riesgo básico que viene representado por las fluctuaciones de la siniestralidad, sino otros muchos factores como la rentabilidad de las reservas, la inflación, los ciclos económicos, el reparto de dividendos, etc... El entorno en el que se desarrolla la tesis es el enfoque que ofrece la teoría del riesgo, que se centra básicamente en la modelización de la cuantía total de los siniestros de una cartera de riesgo.Dentro de la teoría del riesgo se encuentran trabajos que plantean la introducción de políticas de dividendos en los modelos básicos que formalizan el comportamiento de las reservas en carteras de seguros no vida. La idea consiste en que la parte de las reservas consideradas excedentes se repartan en forma de dividendos. Formalmente, su introducción en el modelo, se realiza mediante la definición de barreras de dividendos que determinan las cuantías de reservas que como máximo la compañía de seguros ha decidido mantener.El estudio de los efectos de la modificación del modelo mediante la introducción de estrategias de reparto de dividendos se convierte en el punto de partida de la tesis. Así, los objetivos generales de la tesis se pueden agrupar básicamente en dos:· Analizar los efectos de la introducción de barreras de dividendos en la probabilidad de ruina.· Cuantificar los dividendos repartidos.Respecto al primer objetivo indicado, es evidente que la introducción de políticas de dividendos provoca una menor acumulación de reservas, y por tanto una mayor probabilidad de que las reservas sean insuficientes para cubrir la siniestralidad. Analizar cómo se verá afectada la solvencia de las carteras en función de la política de dividendos elegida será pues uno de los puntos a tratar a lo largo del trabajo.En lo relativo a la cuantificación de los dividendos repartidos, se puede considerar el papel de los dividendos como incentivo a los accionistas que han aportado el capital inicial, dividendos que pueden ser considerados, bien como rendimientos, bien como amortización a su inversión inicial. Se debería valorar, por tanto, si un mayor reparto de dividendos compensa el mayor riesgo de insolvencia, situación que puede interpretarse como una más rápida amortización de las aportaciones iniciales.De ahí surge la necesidad de cuantificar los dividendos repartidos, de analizar su influencia sobre la solvencia de la cartera y de determinar la política de dividendos considerada óptima desde el punto de vista de criterios económico-actuariales.La elección de la magnitud elegida para valorar los dividendos repartidos es un aspecto básico. Así, veremos a lo largo del trabajo como en la literatura actuarial se trabaja con la esperanza del valor actual de los dividendos repartidos, asumiendo que el proceso acaba en el momento de ruina o bien permitiéndose valores negativos de las reservas, y por tanto la recuperación del proceso.Una vez planteados los objetivos, surgió la necesidad de formalizar el modelo modificado con el reparto de dividendos. Así, en el Capítulo 2, se especifican las hipótesis a partir de las cuales se determina el reparto: se puede considerar que se repartirán dividendos siempre que el nivel de las reservas alcance el nivel de la barrera de dividendos (reparto continuo), o bien que el reparto sólo se producirá en momentos determinados del tiempo, suponiendo que las reservas sean mayores que la cuantía predeterminada por la barrera de dividendos (reparto discreto). Se recogen también los dos tipos de barreras definidas en la literatura actuarial: por un lado, las barreras reflectantes, que mantienen el nivel de las reservas en la barrera hasta la ocurrencia del siguiente siniestro, y por otro, las barreras absorbentes, definidas de tal forma que siempre que las reservas alcancen la barrera, se da por acabado el proceso.Una vez definidas las hipótesis de reparto y su formalización, otro de los temas interesantes fue el de analizar las barreras que aparecían definidas en la literatura actuarial para controlar el crecimiento ilimitado de las reservas. Así, encontramos trabajos sobre la barrera constante y la barrera lineal creciente.Nos centramos primero en el estudio de la barrera constante, realizado en los Capítulos 3 y 6. En el capítulo 3 se analiza suponiendo reparto continuo, y en el capítulo 6 se asume reparto discreto. Independientemente del reparto asumido, la característica básica es que, en el análisis en tiempo infinito, se producen valores de la probabilidad de ruina igual a uno. Se recoge la demostración asumiendo reparto continuo, y se presenta la demostración de que en el reparto discreto la ruina también es segura.En el análisis de la barrera constante, al ser la ruina cierta, centramos el estudio en la cuantificación de los dividendos repartidos. En la primera parte del capítulo 3 se presentan nuevas medidas que permiten aportar datos sobre la cuantía y el momento en que se empiezan a repartir dividendos, suponiendo que éstos sean positivos, mientras que en la segunda parte se realiza un estudio en el que se determina un óptimo económico del nivel de la barrera y el nivel inicial de las reservas. La idea que nos llevó a plantear este problema es que se puede considerar el nivel inicial de las reservas como una aportación de los accionistas. La comparación de esta cuantía con los dividendos que recibirán a cambio permite hallar combinaciones óptimas y obtener datos para analizar la rentabilidad obtenida por los accionistas.En el capítulo 6, en el que se analiza la barrera constante con reparto discreto, y tras buscar la bibliografía existente, hallamos que el cálculo de los dividendos repartidos se realizaba para unas distribuciones del coste total concretas. Así, nos planteamos un método de resolución válido para cualquier distribución discreta de la siniestralidad agregada. Optamos por el planteamiento de un sistema de ecuaciones lineal y su correspondiente generalización en la forma matricial que nos permitiese hallar la esperanza del valor actual de los dividendos, independientemente de la distribución del coste agregado.La otra barrera planteada hasta ahora, es la barrera lineal tratada en el Capítulo 4. Aquí la ruina ya no es segura, por lo que debemos plantearnos el cálculo de la probabilidad de ruina, tema tratado en la primera parte del capítulo.La segunda parte está dedicada a la valoración de las cuantías repartidas en forma de dividendos. De especial importancia en este capítulo es el uso de un planteamiento alternativo para el cálculo de la probabilidad de ruina y de los dividendos repartidos (Grandell (1991)), que nos permite la demostración analítica de las condiciones de contorno necesarias para la resolución de las ecuaciones en derivadas parciales obtenidas.En el capítulo 5 presentamos una nueva barrera de dividendos a la que denominamos barrera parabólica. La idea de introducir una nueva estrategia de reparto de dividendos surgió cuando, mediante simulación, pudimos comprobar que existen barreras alternativas equivalentes desde el punto de vista de la solvencia, pero que producen un reparto de dividendos diferente. Analizamos en este capítulo la probabilidad de ruina y los dividendos repartidos, incluyéndose comparaciones con la barrera lineal.En el capítulo 7 se presentan las conclusiones de la Tesis. En el capítulo 8 se incluyen los programas informáticos en Fortran y APL2 necesarios para el desarrollo de algunos apartados de la Tesis.
  • logoOpenAccessTesi
    Market Indices: Bases, Biases and Beyond
    (Universitat de Barcelona, 2009-07-23) Andreu Corbatón, Jordi; Alegre Escolano, Antonio; Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial
    [eng] Market Indices are perhaps one of the most well known concepts in finance. They have also a crucial role in the professional financial field: hundreds of institutional investors, pension funds or investment banks use, follow and create market indexes. Since 1880, indexes have spread over the world developing a huge industry. The Modern Portfolio Theory (MPT), the CAPM or the efficiency analysis contributed to this expansion, and theoretical and empirical studies concluded passive investments (or indexing) were winning strategies. Indexing grew exponentially supported by lower management costs, simplification of the manager selection, superior performance in average, and the EMH and CAPM fever. In the last 20 years indexed institutional assets have grown 40% annually. Having in mind the importance of indexing, it is really shocking not to find a complete and deep analysis of market indexes. No many books or articles about index construction are available. Regarding this reality, the main objective of this thesis was to contribute with a complete theoretical and empirical analysis of market indexes. A deep literature analysis is presented and completed with an empirical study in three articles. In the first article, a revision of financial fundamental pillars is provided. This revision is absolutely essential to understand theoretical and empirical bases of indexing and hypotheses underlying index construction. The analysis let us present five market index biases (the sample, the construction, the efficiency and the active bias, and finally, tracking error). The definition of these biases is fundamental to understand how indexes can be improved. In the second article, a deep Market Index analysis is presented. After an historical revision and a discussion about functions of an index and desirable characteristics, market index's biases are provided and studied. The author pays attention to how these biases are created and how the can be mitigated. Finally, in the last article, Minimum Risk Indices are generated for the Spanish, American and Argentinean Stock Markets. Minimum Risk Indices using VaR provide market indices with less risk and with higher profitability in some cases, due to the partial elimination of some market index biases, specially, the efficiency one.KEYWORDS: Market Indices, Biases, Passive Investment, Prtfolio Management, Minimun Risk Indices.
  • logoOpenAccessTesi
    La Teoría de la Credibilidad y su aplicación a los seguros colectivos
    (Universitat de Barcelona, 1991-12-20) Pons Cardell, M. Àngels; Alegre Escolano, Antonio; Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial
    [spa] El objetivo de esta tesis doctoral es dar una visión sistemática y completa, en la medida de lo posible, de los distintos modelos propuestos dentro de la Teoría de la Credibilidad para el cálculo de las primas de riesgo individuales, así como las relaciones existentes entre ellos, sus ventajas e inconvenientes.El desarrollo de la Teoría de la Credibilidad se basa en agrupar las pólizas referentes a un mismo riesgo, con una serie de características comunes en un colectivo, al cual corresponde como a tal una determinada prima colectiva. Pero, a su vez, cada póliza tiene un conjunto de características específicas que la diferencian de las demás pólizas, características que en la mayoría de los casos son inobservables o de difícil cuantificación, pero que se deben tener en cuenta a la hora de calcular las primas de riesgo individuales.El término Credibilidad fue introducido en la ciencia actuarial como una medida de la creencia, de la importancia, que el actuario cree que debe ser dada a un cuerpo particular de experiencia con el objeto de elaborar una tarifa. El objetivo de la Teoría de la Credibilidad es estimar las primas de riesgo individuales basándose en la información disponible sobre la experiencia de reclamaciones de cada póliza, de tal manera qua las fórmulas de credibilidad obtenidas son una especie de medias ponderadas entre la prima colectiva del riesgo y la media empírica de las indemnizaciones pagadas por cada póliza.La Teoría de la Credibilidad surgió a principios del siglo XX, y en su formulación actual fue desarrollada en los años anteriores a la Primera Guerra Mundial. El motivo fue la presión que ejercieron algunas compañías, con un gran número de empleados y una baja siniestralidad, para que se les reconociera estos hechos en el importe de las primas a pagar.MOWBRAY, A. (1914) planteó en el contexto de los seguros de compensación obrera la cuestión de cuántos asegurados, cubiertos por el mismo contrato, son necesarios para tener una estimación completamente creíble del ratio de la prima basada en la experiencia individual de un empleado, que pueda servir como prima para el próximo año.Dicho autor calculó, con un modelo matemático relativamente simple, el número de asegurados cubiertos por el mismo contrato requeridos para tener una estimación segura (creíble) de la prima pura verdadera, y su solución fue interpretada como un estándar (una norma) para conseguir una credibilidad completa o credibilidad total.MOWBRAY, A. no fue el único actuario que se preocupó de hallar cuál era el tamaño necesario de una experiencia de seguros para poder alcanzar una credibilidad completa, sino que muchos otros autores, entre ellos PERRYMAN, F. (1932) se ocuparon del tema.Una vez que el problema de la credibilidad completa estuvo bien definido, se planteó otro: cómo actuar cuando el número de asegurados fuese demasiado pequeño. A este problema se le conoce con el nombre de credibilidad parcial, ya que se trata de calcular el peso que se debe asignar a los nuevos datos frente a la experiencia de reclamaciones pasada, cuando tales datos no son lo suficientemente numerosos como para proporcionar una credibilidad completa. WHITNEY, A. (1918) fue uno de los primeros autores que se ocupó del tema, y estableció que en los seguros de compensación obrera, en los seguros de grupo, en algunos seguros de responsabilidad, y posiblemente en otros pocos tipos de seguros, el riesgo asegurado proporciona una experiencia de si mismo, esto es, las contingencias aseguradas ocurren con suficiente frecuencia cono para proporcionar información útil.Por ello, en los mencionados tipos de seguros, el problema de la tasación de la experiencia presenta la necesidad, desde el punto de vista de la equidad para el riesgo individual, de alcanzar un equilibrio entre la experiencia del grupo y la experiencia individual. Para WHITNEY, A., el problema fundamental residía en la obtención de un criterio que permitiese dar, a cada uno de los dos tipos de experiencia, su peso adecuado en la determinación de la prima a pagar por cada individuo. Las fórmulas del tipo indicado por WHITNEY se han denominado "fórmulas credibilísticas", y se han convertido en un elemento característico de la Teoría de la Credibilidad.El problema de la credibilidad parcial dio lugar múltiples discusiones entre los actuarios norteamericanos, así como a un número elevado de fórmulas para la determinación del factor de credibilidad, algunas de ellas casi inverosímiles. La Teoría de la Credibilidad ha tenido y tiene una gran relevancia práctica, de tal modo que los procedimientos credibilísticos empleados en las entidades aseguradoras precedieron a su justificación teórica. Como herramienta práctica es en gran parte invención de los actuarios norteamericanos, pero sus raíces provienen de la Teoría del Riesgo y de la estimación estadística.Aunque LONGLLEY-COOK, L. (1962) planteó ya la necesidad de un modelo matemático firme para desarrollar correctamente la Teoría de la Credibilidad no fue hasta 1965, en el coloquio de Astin, cuando se plantearon los verdaderos fundamentos teóricos de la misma, al presentar BÜHLMANN, H. su fórmula de credibilidad de distribución libre basada en el criterio de los mínimos cuadrados, que fue publicada en 1967.Desde la aparición del modelo de BÜHLMANN se han expuesto una gran variedad de modelos credibilísticos, que nosotros henos clasificado del siguiente modo: modelos clásicos, modelos de Regresión, modelos Semi-lineales y modelos Jerárquicos.Esta clasificación no sigue estrictamente el orden cronológico de aparición de los modelos, sin embargo a nuestro entender da una visión clara de las interrelaciones que existen entre los modelos, dentro de cada grupo, y entre los distintos grupos.En el Capítulo II de este trabajo, hemos analizado los modelos que hemos denominado "Modelos Clásicos", que son el Modelo de BÜHLMANN y el Modelo de BÜHLMANN-STRAUB. El término "clásico" lo hemos utilizado para indicar que estos dos modelos fueron los dos primeros que aparecieron como tales, y al mismo tiempo sentaron las bases para la aparición de los demás modelos credibilísticos. Se trata de dos modelos de tiempo homogéneo, aunque el segundo con observaciones ponderadas.En el Capítulo III, hemos analizado los Modelos de Regresión, que incluyen el Modelo de Regresión de HACHEMEISTER y el Modelo de Regresión No-Lineal de De VYLDER, siendo el segundo una generalización del primero. Estos dos modelos constituyen una de las vertientes en la cual se ha desarrollado la Teoría de la Credibilidad desde la aparición de los modelos clásicos, y la henos denominado Modelos de Regresión pues, como su propio nombre indica, uno de sus elementos característicos es la utilización de la técnica de regresión para el cálculo de los estimadores de credibilidad, junto con el completo abandono de la hipótesis de homogeneidad en el tiempo.En el Capítulo IV hemos analizado las Modelos Semilineales, ambos propuestos por De VYLDER, F. (1976), que son respectivamente el Modelo Semilineal y el Modelo Semilineal Óptimo. Estas dos modelos se hallan en la misma línea que el Modelo de BÜHLMANN, en cuanto que siguen asumiendo la hipótesis de homogeneidad en el tiempo, aunque ya no utilizan directamente los datos de la experiencia de reclamaciones sino que los transforman previamente a través de unas funciones.En el Capítulo V hemos analizado los Modelos Jerárquicos, que engloban al Modelo Jerárquico de JEWELL, el Modelo Jerárquico con múltiples niveles, el Modelo de Regresión Jerárquico de SUNDT y el Modelo de Regresión Jerárquico con múltiples niveles.Bajo la denominación de Modelos Jerárquicos hemos englobado aquellos modelos en los cuales cada póliza ya no viene caracterizada por un único parámetro de riesgo, sino que por tantos como niveles se hayan considerado dentro de la cartera. Esta vertiente fue iniciada por JEWELL, W. (1975), cuyo modelo aparece paralelamente al Modelo de Regresión de HACHEMEISTER.En cuanto al análisis de cada una de los modelos credibilísticos, nos hemos centrado principalmente en el estudio de las hipótesis asumidas en cada uno de ellos, así como en los problemas de estimación que se presentan tanto a la hora de obtener los estimadores ajustados de credibilidad como en la obtención de los estimadores de los parámetros estructurales. A su vez, hemos comparado los distintos modelos, y henos indicado las relaciones y diferencias existentes entre ellos, en lo referente a las hipótesis asumidas y a las consecuencias que se desprenden de los mismos.Una vez analizados los modelos de credibilidad, el siguiente paso, en el Capítulo VI, ha sido aplicar algunos de los modelos expuestos, para prever la prima de riesgo que deberá pagar el próximo año una entidad bancaria, que consta de veinticinco sucursales y que ofrece a sus Clientes, desde hace cuatro años, un seguro totalmente gratuito a cobrar en caso de muerte, que tiene contratado con una entidad aseguradora.La entidad aseguradora dispone de información respecto al montante global de las indemnizaciones que se han ido pagando en cada uno de los cuatro años de vigencia del seguro, y puede acceder a la misma desglosada por sucursales y años de ocurrencia. Al disponer cada sucursal de su propia experiencia de reclamaciones, la vamos a utilizar para estimar su prima de riesgo individual para el próximo año. Una vez estimadas las primas de riesgo individuales para cada una de las sucursales, la prima de riesgo total a pagar por parte de la entidad bancaria la obtendremos sumando las veinticinco primas de riesgo individuales.A la entidad aseguradora le interesará aplicar aquel modelo de credibilidad que le proporcione la prima total a cobrar y que mejor se adecue al caso estudiado, siendo éste el objetivo último de esta aplicación práctica.Para prever las primas de riesgo individuales hemos aplicado el Modelo de BÜHLMANN, el Modelo de BÜHLMANN-STRAUB, el Modelo Semilineal de DE VYLDER, el Modelo de Regresión de HACHEMISTER, el Modelo Jerárquico de JEWELL y el Modelo de Regresión Jerárquico de SUNDT.Para obtener los resultados numéricos a través de los cuatro primeros modelos, hemos contado con la ayuda de las funciones elaboradas en el lenguaje de programación APL, por STIERS, D.; GOOVAERTS, M. y De KERF, J. (1987), denominadas BÜHLMANN, BÜHLMANNSTRA, SEMILINEAR y HACHEMEISTER respectivamente, mientras que para los dos últimos modelos hemos tenido que elaborar nuestras propias funciones, también en APL, que hemos denominado JEWELL y SUNDT, ya que no tenemos conocimiento de ningún programa informático a tal efecto. No nos hemos limitado a obtener los resultados numéricos, sino que en cada modelo henos comentado sus ventajas e inconvenientes, así como las diferencias existentes entre ellos, y su adecuación o no al caso estudiado.
  • logoOpenAccessTesi
    Hacia una teoría de carteras desde el punto de vista de la revisión
    (Universitat de Barcelona, 1992-02-28) Preixens, Teresa; Borrell, Máximo; Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial
    [spa] El poseedor de una cartera de valores, definida en la presente Tesis como un conjunto de activos financieros bursátiles de renta fija y/o variable que se ha constituido con fines de inversión, se enfrenta al problema de la adaptación, en el tiempo, de la composición de dicha cartera. Este proceso de adaptación es el que constituye la revisión de la cartera que puede enfocarse de dos maneras distintas, que dan origen a dos tratamientos de la revisión totalmente diferentes. El primer enfoque (modelos uniperiódicos de revisión de cartera) supone el tratamiento individualizado de cada uno de los T períodos en los que se puede dividir el tiempo total que transcurre desde el momento de constitución de la cartera hasta que se liquida definitivamente. Como consecuencia, se ignora toda relación entre periodos y la influencia que las decisiones tomadas en cada uno de ellos puedan tener sobre los restantes.El segundo enfoque (modelos multiperiódicos de revisión de cartera) trata de forma conjunta los T periodos en que se divide el horizonte temporal de posesión de la cartera y ello implica que la decisión tomada en cada periodo esté condicionada por la decisión tomada en el resto de periodos.Los modelos uniperiódicos de revisión de cartera son tratados en la Parte I de la Tesis, en los Capítulos 1, 2 y 3. En concreto, en el primer Capítulo se realiza un estudio de los modelos fundamentales (modelo Esperanza-Varianza básica y modelos de índices) que consideran que el inversor selecciona, de entre el conjunto de carteras eficientes, aquella que maximiza su utilidad esperada.El criterio de eficiencia de los modelos fundamentales se basa en la esperanza y en la varianza de la variable aleatoria "rentabilidad de la cartera". Según este criterio, el inversor se ve perjudicada por cualquier desviación respecto a la rentabilidad esperada, sea positiva o negativa.Los modelos de índices introducen, en el contexto de la Teoría de la Cartera, el comportamiento del mercado. Este comportamiento se tiene en cuenta al considerar que la rentabilidad de un título no sólo depende del propio título, sino también de un conjunto de índices sectoriales (modelo de índices múltiples; apartados 1.3.2 y 1.3.3), las fluctuaciones de los cuales se trasladarán al título.En el Capítulo 2 se han tratado aquellos modelos que nacen de la modificación a algunas de las hipótesis de los fundamentales. Así, el modelo de Fama (apartado 2.2.1) supone que la distribución de la tasa de rentabilidad es del tipo Pareto estable y deduce el criterio de eficiencia adecuado para este caso. Si se supone una distribución lognormal (modelo de Fama-Elton-Gruber; apartado 2.2.2.) no es posible deducir un criterio de eficiencia de carácter general.Si bien en los anteriores modelos se ha supuesto que no era posible el endeudamiento ni las ventas al descubierto, estas hipótesis también pueden relajarse, dando lugar a los siguientes modelos:- Modelo Tobin-Sharpe-Lintner (apartado 2.3.2.).- Modelo de Black (apartado 2.3.3.).Otra de las hipótesis del modelo E-V básico hace referencia a la forma de la función de utilidad, que se supone cuadrática. Las limitaciones que presenta esta función han hecho que se considere la posibilidad de que la función de utilidad representativa de las preferencias del inversor sea cúbica (Modelo de Hanoch-Levy; apartado 2.4). Pero en este caso, es imposible deducir un criterio de eficiencia de carácter general parecido al derivado del criterio E-V.Por otra parte, la incorporación al modelo de revisión de los costes asociados al mantenimiento y revisión de una cartera puede realizarse de tres formas distintas (apartado 3.2.):1) La revisión sólo se lleva a cabo si el incremento de rentabilidad que se espera obtener de dicha revisión compensa los costes asociados.2) Los costes se consideran cono una restricción presupuestaria.3) Los costes disminuyen la rentabilidad esperada de la cartera.Además del modelo E-V básico y todas las modificaciones a las que ha dado lugar, existen otros modelos de revisión de cartera (Capitulo 3) que se caracterizan también por su carácter uniperiódico y por considerar como único objetivo la maximización de la utilidad esperada del inversor. Este es el caso de los modelos de Baumol (E-L; apartado 3.3), Esperanza-Semivarianza (E-S; apartado 3.4), Esperanza.-Entropía (E-H; apartado 3.5) y Dominancia Estocástica (apartado 3.6) En todos estos modelos el objetivo perseguido es de carácter mixto puesto que la cartera óptima ha de ser, a su vez, eficiente.Los tres primeros modelos (E-L, E-S y E-H) se basan, para la determinación del conjunto eficiente, en dos momentos de la distribución de probabilidad pero mientras el primero es común. (Esperanza), difieren en el parámetro representativo del riesgo asociado a la cartera. Así, mientras el modelo de Baumol mide el riesgo a través del "límite inferior de confianza" (L), el modelo E-S utiliza la semivarianza (negativa; S(h)) y el modelo E-H se basa en la entropía.De estas tres medidas del riesgo, L y S(h) surgen de una concepción del riesgo similar puesto que ambas penalizan únicamente las desviaciones negativas de la rentabilidad.La entropía se caracteriza por su independencia respecto al inversor y respecto a la esperanza.El modelo de Dominancia Estocástica se diferencia de los tres modelos anteriores y del modelo E-V básico en que el criterio de eficiencia no se apoya en dos momentos de la distribución de probabilidad sino en la propia función de distribución, considerada ésta en su globalidad. Ello permite definir criterios de eficiencia adaptados a distintos tipos de funciones de utilidad, ampliando el abanico de posibilidades de aplicación del modelo, a diferencia de otros que deben añadir hipótesis restrictivas respecto a dicha función.Dentro de los modelos triperiódicos de revisión de cartera se incluye también el modelo Media Geométrica (apartado 3.7.) que pretende maximizar la media geométrica de la rentabilidad de la cartera, lo cual equivale a maximizar la utilidad esperada si la función de utilidad es logarítmica.La mayoría de modelos que se plantean cuál es la cartera óptima para el inversor, consideran que éste se comporta maximizando su utilidad esperada; sin embargo, debe admitirse la posibilidad que el inversor pueda fijarse un objetivo distinto, en el que la utilidad no intervenga.En este sentido, los modelos "Safety First" (apartado 3.8) pretenden asegurar al inversor una determinada rentabilidad. Es decir, se busca ante todo la seguridad del inversor.Por último, dentro de los modelos triperiódicos de revisión de cartera es posible diseñar un modelo ajustado a cada inversor particular, en el que se tengan en cuenta múltiples objetivos. Este es el caso del modelo de Programación por Objetivos (apartado 3.9), que admite la incorporación de cuantos objetivos el inversor desee alcanzar, inclusive cuando éstos muestren cierto grado de incompatibilidad mutua, mediante la utilización de unos coeficientes que determinan el grado de prioridad con que deben ser conseguidos cada uno de los objetivos.En la Parte II se han estudiado los modelos de revisión de cartera que se caracterizan por el tratamiento global de los T periodos considerados, lo cual se traduce, matemáticamente, en un problema de optimización de carácter dinámico que se ha resuelto mediante la aplicación de la Programación Dinámica.La utilización de este método de optimización permite determinar, en el momento de constituir la cartera, y gracias al proceso de retro-optimización, cuál es la cuantía óptima que debe invertirse en cada punto decisorio y en cada activo para conseguir el objetivo deseado.La mayoría de los modelos que tienen en cuenta, de forma explícita, la naturaleza multiperiódica de la cartera consideran al inversor como un maximizador de la utilidad esperada, ya sea de la riqueza final del "lifetime consumption", o de la rentabilidad de la cartera periodo a periodo. En este trabajo se han tratado, únicamente, los modelos que consideran que la finalidad del inversor es maximizar la utilidad esperada de la riqueza disponible en T.Del mismo modo que en los modelos triperiódicos, la maximización de la utilidad esperada de la riqueza disponible en T puede constituir un objetivo de carácter puro, adjetivo que se ha utilizado para indicar que se maximiza directamente la función de utilidad esperada pero, así mismo, puede tratarse de un objetivo de carácter mixto, en cuyo caso la cartera óptima deberá ser, a su vez, una cartera eficiente.Si se delimita la elección de la cartera óptima al conjunto eficiente, se puede considerar la extensión del modelo E-V básico al caso multiperiódico, lo cual exige la definición de la frontera eficiente y, por tanto, de un criterio de eficiencia para el conjunto de T periodos (apartados 4.2 y 4.3).Ahora bien, el criterio de eficiencia basado en el valor esperado y en la varianza no es adecuado para el caso multiperiódíco puesto que el tercer momento para el conjunto de T periodos no es cero a pesar de que periodo a periodo este tercer momento pueda ser nulo. Así, el tercer momento debe ser tenido en cuenta para determinar la eficiencia de una cartera, pero su consideración no permite deducir un criterio de eficiencia de carácter general puesto que, mientras un incremento de la varianza provoca un incremento del tercer momento, el efecto de un incremento de la rentabilidad esperada en dicho momento no está determinado. La dificultad que supone la definición de un criterio de eficiencia basado en los tres primeros momentos estadísticos sugiere la posibilidad de buscar la cartera que maximiza directamente la función de utilidad esperada sin reparar en la eficiencia de dicha cartera.Por ello, en el Capítulo 5 se ha desarrollado el modelo de Maximización directa de la función de utilidad esperada de la variable "riqueza disponible en el momento T" y para ello se ha supuesto que la función de utilidad del inversor puede ser cuadrática, logarítmica o potencial. Así mismo, se ha considerado la posibilidad de que la cartera esté formada por N activos arriesgados o bien por N activos arriesgados y un activo sin riesgo.Para cada tipo de función y para cada tipo de cartera se ha deducido, bajo hipótesis de independencia y estacionariedad, cuál es la cuantía óptima que debe invertirse en cada activo y en cada punto decisorio para conseguir maximizar la utilidad esperada en T que es el único objetivo fijado por el inversor. Para ello ha sido necesaria la definición de la función de utilidad "derivada", que es la función que debe maximizarse en cada uno de los periodos para garantizar la maximización de la función de utilidad real.Además de deducir cuál debe ser la cuantía invertida en cada activo y en cada punto decisorio, se han estudiado los casos en que la política miope es la óptima; es decir, en qué casos la maximización de la función de utilidad esperada de la riqueza disponible en t+l conduce a los mismos resultados que la maximización de la función de utilidad esperada de la riqueza disponible en T mediante la Programación Dinámica.El estudio de estos casos es importante porque:1) simplifica el proceso de determinación de las funciones de utilidad "derivadas"; y,2) da validez a los modelos uniperiódicos basados en la maximización directa, en cada periodo, de la función de utilidad esperada, puesto que, en este caso, la utilidad esperada en el momento T coincidirá con la obtenida mediante la aplicación de los modelos multiperiódicos.
  • logoOpenAccessTesi
    Reaseguro y planes de pensiones
    (Universitat de Barcelona, 1993-07-09) Sarrasí Vizcarra, Francisco Javier; Alegre Escolano, Antonio; Universitat de Barcelona. Departament de Matemàtica Econòmica, Financera i Actuarial
    [spa] La tesis tiene como objeto el estudio del aseguramiento (reaseguramiento) de un Plan de Pensiones que asume el riesgo derivado de las desviaciones de mortalidad en un colectivo de partícipes (personas físicas en cuyo interés se crea el Plan) y beneficiarios (personas físicas con derecho a la percepción de prestaciones del Plan).Las modalidades de reaseguro que hemos planteado han sido las siguientes:a) Reaseguro del Percentil, contrato de reaseguro por el cual el reasegurador se obliga a cubrir la pérdida que puede tener plan como consecuencia en las desviaciones en la mortalidad de los partícipes del colectivo. En esta modalidad hemos supuesto que el Plan de Pensiones parte con un nivel de solvencia prefijado.b) Reaseguro de diferencia de siniestralidad, contrato por el cual el reasegurador se encarga de cubrir en cada período las provisiones matemáticas y márgenes de solvencia que pudieran establecerse, y el riesgo de fallecimiento.Dentro de esta modalidad hemos planteado dos tipos de reaseguro:- Tipo A: el reasegurador interviene siempre y cuando con las primas recargadas cobradas no tenga suficiente para poder hacer frente a las contingencias indicadas.- Tipo B: se diferencia del anterior en que en aquellos períodos donde el Plan requiera de financiación externa para cubrir la provisión y el margen de solvencia correspondiente, éste cede al reasegurador aquella parte de sus fondos que exceden de la provisión matemática y margen de solvencia correspondiente. De esta forma el plan, consigue tener garantizados exactamente en cada período la provisión matemática y el margen de solvencia a un coste menor al que tendría con el reaseguro Tipo A.Para cada modalidad de reaseguro hemos contemplado la posibilidad de ceder al reaseguro el posible beneficio del plan en el momento de extinción del colectivo (sólo posible en colectivos cerrados). Lo cual ha permitido reducir el coste de la operación sin menoscabo en los objetivos del reaseguro.La consideración del recargo de seguridad del plan como variable independiente que puede manejar el plan, nos ha permitido encontrar combinaciones óptimas recargo-reaseguro, en el sentido que hacen mínimo el coste total de la operación, dadas el resto de variables que interviene en el modelo.El modelo aplicado en la tesis para calcular la prima de reaseguro se caracteriza por ser:a) Actuarial: En la medida que utiliza como instrumento la matemática actuarial.b) Estocástico: ya que trabajamos con toda la aleatoriedad de las variables aleatorias que intervienen en el modelo.c) General: puesto que el mismo nos permite obtener las primas de reaseguro para las dos modalidades anteriormente descritas.d) Discreto: puesto que trabajamos con variables aleatorias discretas.Las hipótesis del modelo son:- Las prestaciones se relacionan únicamente con la vida y fallecimiento del partícipe.- El único riesgo es el derivado de las fluctuaciones aleatorias de la mortalidad respecto de su valor esperado. - El tipo de interés está determinado y es determinista.- El Plan de Pensiones no persigue ánimo de lucro.- El Plan de Pensiones una vez reasegurado no asume ningún riesgo.- El Plan de Pensiones carece de reservas iniciales y sólo se financia de las aportaciones de los partícipes. El modelo ha sido aplicado al caso tanto de colectivos cerrados como abiertos, utilizando como instrumento para poder determinar la evolución del colectivo el método de simulación de Monte Carlo.El cálculo de la prima de reaseguro de cada elemento del colectivo aparece como un problema de reparto del coste del reaseguro entre los partícipes que forma el colectivo. Este reparto, que puede realizarse de distintas formas, ha dado lugar a criterios en la determinación de la prima de reaseguro.La conclusión a la que llegamos es que no podemos establecer una prima de reaseguro general y válida en cada modalidad planteada y para cualquier Plan de Pensiones, ya que ésta depende del tipo de prestaciones y contraprestaciones del colectivo, de las bases técnicas utilizadas y de la composición del colectivo.Por tanto, cada Plan de Pensiones requerirá de un análisis particular para determinar la prima de reaseguro.