托瑞斯是什么,什么叫对冲基金?

托瑞斯是什么

  本篇文章给大家谈谈托瑞斯是什么对应的知识点,希望对各位有所帮助,不要忘了收藏本站喔。

参考一、什么叫对冲基金?

    哟,终于出现我的行业了。防止露馅,得好好写。
    首先我对这个标签很无力:“金庸”“基金”...好歹也应该是“金融”“投资”之类的吧?
    所谓的“对冲”,就是在交易和投资中,用一定的成本去“冲掉”风险,来获取风险较低或无风险利润,即所谓“套利”。而对冲基金,顾名思义就是采用“对冲”的操作策略的基金(但很多公司根本不对冲,这个后面说)。
    对冲的方法有很多种,可以期现价差对冲,远近合约对冲,相同产品地域对冲,相关产品对冲,以及对赌协议等等衍生品。狭义来说,对冲仅仅是一种交易的策略,不牵扯什么金融阴谋论。更多情况下,你听到的大多数关于这个行业的信息是在妖魔化对冲这个名字。
    =============================================
    举几个例子(都是各种金融产品和衍生品的例子,交易中一般不牵涉实物交易):
    伦敦的铜价是7万/吨,而上海的铜价是5万/吨。你知道这个价格是不可能永远差这么多的:会有很多人去把上海的铜卖给伦敦市场,因此价格会变得一致。
    于是你判断出伦敦和上海的价差会缩小,因此做空伦敦铜期货,同时买入上海铜期货,那么无论最后铜的走势是涨还是跌,只要伦敦和上海的价差消失,你就可以盈利。这就是所谓相同产品的地域对冲。
    你又发现12月份的煤炭期货价格是1000/吨,而明年1月份的煤炭价格是500/吨。同样,你知道这个价格差还是会收敛,因为大家都会等到1月份再买煤,而12月的煤就会因此降价。
    于是你做空12月煤期货,做多1月煤期货,等到月底期货交割日之前,12月的煤果然回落到850,而一月的煤则上升到600。这是远近合约对冲。
    股票也是一样。如果假设中国石油和大盘的点数有很高的相关性(事实上也确实如此),那么你发现最近几天中国石油比大盘涨得慢5%左右,那么你可以买入中国石油,同时做空股指期货。这是相关产品对冲。
    对冲的套利结果,由于选择的“配对”不同,是否会减少获利空间,也是不确定的。在上面的例子里,远近合约对冲的结果甚至可能超过普通的交易。
    ==============================================
    另一方面,由于传统的对冲套利模式需要使用一定成本来冲掉风险,因此一些风格激进的公司会更多采用择时投机的方式,获取单侧利润。但这样也肯定增加了交易风险。总体来说,这个行业交易频繁,信息源较多,涉猎行业多。
    另外就是,对冲基金由于交易频繁,采取的交易策略或激进或诡异或平凡,但都需要大量的资金以及相对较稳定的出资人,因此不太可能与公募基金和银行存款搞上关系。募集形式上与封闭型基金类似,而操作形式上类似于信托账户和阳光私募。
    ==============================================
    再举个实际的例子,我的例子:
    2009年,日本发生了很严重的通货紧缩。我们捕捉到这个信息后,马上锁定了一些零售业的企业,开始观察。
    年初的时候,电器行业有几家公司的经营恶化,而中国的资金寻风而至,摆出了要收购的架势。而我们则转向传统百货业的上市公司,因为这个行业更危险,同时作为上市公司,更可能被日本的企业,而不是中国企业所收购(这里面牵扯很多法务以及外汇管理的问题)。
    09年年中,锁定一家百年老店,有银行参股和财阀参股背景。从二级市场持续购入5%的股票,大概成本30亿日元,并宣布成为公司大股东。
    10年年初该老店的股东大会,与其他大股东接触,提出增持意向。
    3月份,该老店经营情况果然出现危机,门店关闭,股价再跌,我们增持到15%,总成本80亿日元。
    4月初,要求召开临时股东大会,提案将该老店几年前引入的反并购条例取消,为潜在的并购交易铺平道路。
    6月底,大股东之一的财阀准备并购重组,宣布TOB,该公司股价上升。我们的股票溢价5%脱手。11个月的等待,85%的回报,净利润65亿左右。
    这是也是对冲基金的做法,但比较特殊,介于股权交易和二级市场投资之间。

参考二、求通俗解释下bandit***到底是个什么东西?

    这篇回答节选自本人在知乎专栏上正在持续更新的一个系列文章的引子:
    要了解MAB(multi-armbandit),首先我们要知道它是强化学习(reinforcementlearning)框架下的一个特例。至于什么是强化学习:
    我们知道,现在市面上各种“学习”到处都是。比如现在大家都特别熟悉机器学习(machinelearning),或者许多年以前其实统计学习(statisticallearning)可能是更容易听到的一个词。那么强化学习的“学习”跟其它这些“学习”有什么区别呢?这里自然没有什么标准答案,我给这样一个解释(也可见Sutton&Barto第二章引言):在传统的机器学习中,主流的学习方法都是所谓的“有监督学习”(supervisedlearning),不管是模式识别,神经网络训练等等,你的分类器并不会去主动评价(evaluate)你通过获得的每个样本(sample)所进行的训练结果(反馈),也不存在主动选择动作(action)的选项(比如,可以选择在采集了一些样本之后去采集哪些特定的样本)。意思就是,在这些传统的机器学习方法中(实际上也包括其它无监督学习或者半监督学习的很多方法),你并不会动态的去根据收集到的已有的样本去调整你的训练模型,你的训练模型只是单纯被动地获得样本并被教育(instruct,作为对比,activelearning主要就是来解决这一问题的)。
    而强化学习主要针对的是在一个可能不断演化的环境中,训练一个能主动选择自己的动作,并根据动作所返回的不同类型的反馈(feedback),动态调整自己接下来的动作,以达到在一个比较长期的时间段内平均获得的反馈质量。因此,在这个问题中,怎样evaluate每次获得的反馈,并进行调整,就是RL的核心问题。
    这么讲可能还比较抽象,但如果大家熟悉下围棋的AlphaGo,它的训练过程便是如此。我们认为每一局棋是一个episode。整个的训练周期就是很多很多个epsiode。那么每个episode又由很多步(step)构成。
    动作——指的就是阿法狗每步下棋的位置(根据对手的落子而定)
    反馈——每一次epsiode结束,胜负子的数目。
    显然,我们希望能找到一个RL算法,使得我们的阿法狗能够在比较短的epsisode数目中通过调整落子的策略,就达到一个平均比较好的反馈。当然,对这个问题来说,我们的动作空间(actionspace,即可以选择的动作)和状态空间(statespace,即棋盘的落子状态)的可能性都是极其大的。因此,AlphaGo的RL算法也是非常复杂的(相比于MAB的算法来说)。
    至于什么是MAB/***问题:
    我们先考虑最基本的MAB问题。如上图所示,你进了一家***,假设面前有K台***(arms)。我们知道,***本质上就是个运气游戏,我们假设每台***i都有一定概率p_i吐出一块钱,或者不吐钱(概率1-p_i)。假设你手上只有T枚代币(tokens),而每摇一次***都需要花费一枚代币,也就是说你一共只能摇T次,那么怎样做才能使得期望回报(expectedreward)最大呢?
    这就是最经典的MAB场景。那么问题的核心是什么呢?自然,我们应该要假设p_i们是不太一样的(不然怎么摇都一样了),即有一些***比较“好”(更容易吐钱),有一些则比较“差”(不太容易吐钱)。回到RL的框架,我们的动作是什么?即每次摇哪台***。我们的反馈呢?即我们摇了某台特定的***当回合可以观察它吐了钱没有。
    这里当然还有个重要的统计学/哲学问题:即我们是贝叶斯人(Bayesian)还是频率学家(frequentist)。对贝叶斯人来说,我们在一进入***就对每台***扔钱的概率p_i就有一个先验分布(priordistribution)的假设了,比如一个很常见的我们可以用Beta分布。如果我们认为大概率p_i都应该是0.5,即对半开,而不太可能出现一些很极端的情况,我们就可以选择Beta(1,1)分布作为我们的先验分布。然后在我们真正摇了***之后,根据相应的反馈,我们就可以调整p_i们相应的后验分布(posteriordistribution)。比如如果某台机器摇了四五次一直吐不出钱,我们就应该将这台机器的吐钱概率的分布往左推,因为它的p_i大概率应该是小于0.5的。那么,你的任务便是要在有限的时间内找出p_i后验分布比较靠右的那些机器(因为他们更容易吐钱),并且尽可能多的去摇这些比较赚钱的机器。
    而如果你是频率学家,就没什么先验或者后验分布了,你假设你一开始对这些机器的吐钱概率一无所知。你认为每个机器的p_i是个确定的值。那么,你的任务就是要在有限的时间内找到那些高p_i的机器,并尽可能多的去摇它们,以获得更多的回报。那么这里我们注意到这类问题的一大特点,即我们只有T次摇机器的机会,怎样去平衡这T次中exploration(探索)和exploitation(挖掘)的次数。探索意味着广度,比如如果你是频率学家,你一开始什么都不知道,你至少每个机器都需要稍微摇几次(假设T>K,不然问题就无法搞定了)才能对每个机器吐钱概率有个大概感觉。然后,你可能会缩小你的搜索范围,再几台机器里重点实验,最后可能就专门摇一台你觉得最容易吐钱的机器了。当然,我们之后会看到这种办法也未必是最好的。不过这个回答里我们不谈具体的算法,因此这个问题先抛给大家思考了。
    本节最后,我们指出这个MAB问题可能的一些(更复杂的)变种。首当其冲的在于,我们前面的讨论默认了环境是不会变化的。而一些MAB问题,这个假设可能不成立,这就好比如果一位玩家发现某个机器的p_i很高,一直摇之后***可能人为降低这台机器吐钱的概率。在这种情况下,MAB问题的环境就是随着时间/玩家的行为会发生变化。这类问题,在合理的假设下,也是有不少研究和相应的算法的。目前做的最多的假设,也就是所谓的adversarialbandit(就不是stochasticbandit了),就是说这些p_i会被一个“对手”(也可以看成上帝)设定好。如果这是事先设定好,并且在玩家开始有动作之后也无法更改,我们叫做obliviousadversarysetting;如果这个对手在玩家有动作之后还能随时更改自己的设定,那就叫做adaptiveadversarysetting,一般要做成zero-sumgame了。此外,最近也有一些随机但nonstationary的假设下的工作。
    另外MAB有一类很重要的变种,叫做contextualMAB(cMAB)。几乎所有在线广告推送(dynamicaddisplay)都可以看成是cMAB问题。在这类问题中,每个arm的回报会和当前时段出现的顾客的特征(也就是这里说的context)有关。同样,今天我们不展开讲cMAB,这会在之后花文章专门讨论。
    另外,如果每台***每天摇的次数有上限,那我们就得到了一个BanditwithKnapsack问题,这类问题以传统组合优化里的背包问题命名,它的研究也和最近不少研究在线背包问题的文章有关,之后我们也会专门讨论。还有很多变种,如Lipshitzbandit,我们不再有有限台机器,而有无限台(它们的rewardfunction满足利普西茨连续性)等等。。题主既然要最通俗的版本,所以这里就不赘述了,有兴趣深入了解的同学们可以考虑关注我的专栏系列文章,主要是让大家有更好的准备去读一些专门的书籍文献~

参考三、求通俗解释下bandit***到底是个什么东西?

    关于这个问题,我们想采用微软亚洲研究院资深研究员陈卫在中国理论计算机年会上的报告“在线组合学习”进行回答,解读多臂***和组合在线学习之间的关系。
    ————这里是正式回答的分割线————
    ***的***有一个绰号叫单臂强盗(single-armedbandit),因为它即使只有一只胳膊,也会把你的钱拿走。而多臂***(或多臂强盗)就从这个绰号引申而来。假设你进入一个***,面对一排***(所以有多个臂),由于不同***的期望收益和期望损失不同,你采取什么***选择策略来保证你的总收益最高呢?这就是经典的多臂***问题。
    这个经典问题集中体现了在线学习及更宽泛的强化学习中一个核心的权衡问题:我们是应该探索(exploration)去尝试新的可能性,还是应该守成(exploitation),坚持目前已知的最好选择?在多臂***问题中,探索意味着去玩还没玩过的***,但这有可能使你花太多时间和金钱在收益不好的机器上;而守成意味着只玩目前为止给你收益最好的机器,但这又可能使你失去找到更好机器的机会。而类似抉择在日常生活中随处可见:去一个餐厅,你是不是也纠结于是点熟悉的菜品,还是点个新菜?去一个地方,是走熟知的老路还是选一条新路?而探索和守成的权衡就是在线学习的核心。
    多臂***的提出和研究最早可以追述到上世纪三十年代,其研究模型和方法已有很多。其中一类重要的模型是随机多臂***,即环境给予的反馈遵从某种随机但未知的分布,在线学习的过程就是要学出这个未知分布中的某些参数,而且要保证整个学习过程的整体收益尽量高。这其中最有名的一个方法是UCB(UpperConfidenceBound)方法,能够通过严格的理论论证说明UCB可达到接近理论最优的整体收益。
    组合在线学习:组合优化和在线学习的无缝对接介绍了多臂***问题,那组合在线学习和它之间有何关联呢?我们继续来看一下组合多臂***(CMAB)问题。在组合多臂***问题中,你一次拉动的不是一个臂,而是多个臂组成的集合,我们称之为超臂(superarm),原来的每个臂我们称之为基准臂(basearm),以示区别。拉完这个超臂后,超臂所包含的每个基准臂会给你一个反馈,而这个超臂整体也给你带来某种复合的收益。
    那么怎样解决组合多臂***的问题呢?你可能首先想到的就是把每一个超臂看成是经典多臂***问题中的一个臂。但是超臂是多个基准臂的组合,而这样组合的数目会大大超过问题本身的规模——组合问题中经典的组合爆炸现象,因此传统的方法并不适用。所以在线学习不能在超臂这个层次进行,而需要在基准臂层次上进行,并需要与离线组合优化巧妙地结合。我们在ICML2013的论文[2]中给出了组合多臂***的一般框架和基于UCB方法的CUCB算法。CUCB算法将组合优化和在线学习无缝对接实现了前面图示中的反馈回路。较之前的涉及组合多臂***的研究,我们的模型适用范围更广,尤其是我们通过给出收益函数的两个一般条件,能够涵盖非线性的收益函数,这是第一个能解决非线性多臂***问题的方案。我们的工作,包括之后我们和他人的后续工作,都强调对在线学习部分和离线优化部分的模块化处理和无缝对接。也即我们将离线优化部分作为一个黑盒子神谕(oracle),这部分可以由具有相关领域知识的专家来完成。而一旦离线优化问题可以精确解决或近似解决,我们就可以把这个离线算法当作黑盒子拿过来和我们在线学习方法相结合,达到有严格理论保证的组合在线学习效果。这使得我们的方法可以适用于一大批已经有离线优化算法的组合在线学习问题,比如最短路径、最小生成树、最大匹配、最大覆盖等问题的在线学习版本,而不需要对每个问题单独再设计在线学习算法。
    在论文“CombinatorialMulti-ArmedBandit:GeneralFramework,ResultsandApplications”中,我们进一步将组合多臂***模型扩展为允许有随机被触发臂的模型。这一模型可以被用于在线序列推荐、社交网络病毒式营销等场景中,因为在这些场景中前面动作的反馈可能会触发更多的反馈。然而在其理论结果中,我们包含了一个和触发概率有关的项,而这个项在序列推荐和病毒营销场景中都会过大,造成在线学习效果不好。在今年刚被录取的NIPS论文“ImprovingRegretBoundsforCombinatorialSemi-BanditswithProbabilisticallyTriggeredArmsandItsApplications”中,我们彻底解决了这个问题:一方面我们论证了序列推荐和病毒营销等满足某种特定条件的问题都不会有这个不好的项,另一方面我们指出在更一般的组合多臂***中这个项又是不可避免的。这是目前研究可触发臂的组合多臂***中最好的一般结果。
    除此之外,我们还在与组合多臂***相关的方面做了若干工作,比如怎样在反馈受限情况下达到好的学习效果;怎样解决先探索再找到最佳方案的组合探索问题;当离线优化基于贪心算法时,如果更好地将离线贪心算法和在线学习相结合;怎样在有上下文的场景中解决组合序列推荐问题;以及当超臂的期望收益取决于每个基准臂的随机分布而不仅是每个基准臂的分布均值时,怎样同样有效地进行组合在线学习。
    ————这里是回答结束的分割线————
    以上回答摘选自微软研究院AI头条,组合在线学习:实时反馈玩转组合优化。
    感谢大家的阅读。
    本账号为微软亚洲研究院的官方知乎账号。本账号立足于计算机领域,特别是人工智能相关的前沿研究,旨在为人工智能的相关研究提供范例,从专业的角度促进公众对人工智能的理解,并为研究人员提供讨论和参与的开放平台,从而共建计算机领域的未来。
    微软亚洲研究院的每一位专家都是我们的智囊团,你在这个账号可以阅读到来自计算机科学领域各个不同方向的专家们的见解。请大家不要吝惜手里的“邀请”,让我们在分享中共同进步。
    也欢迎大家关注我们的微博和微信(ID:MSRAsia)账号,了解更多我们的研究。

参考四、求通俗解释下bandit***到底是个什么东西?

    单臂one-armed和多臂multi-armed的

参考五、什么叫对冲基金?

    发现几乎大部分解答都集中在“对冲策略”上了,我来说下什么叫对冲基金吧。
    Mike同学看到搞金融的都巨赚钱,也想创一个对冲基金玩玩,于是他去了高盛提出申请,高盛的Sam大叔说,好,想搞基没问题,我们这里没啥规矩,但得满足唯一一个条件,你得确保65%以上的投资者都得是有钱人,就算不是盖茨、焦不思之流,好歹也得身价百万,年入20W刀以上吧,否则搞个毛线,你无所谓穷人死活,美帝政府还在乎呢,这第一个特征,叫AccreditedInvestor。
    走出银行,Mike同学觉得世界都是美好滴,不过等等,钱呢?他找到了盖茨,盖茨说,你要我投你钱?你说得那么好听,自己投了多少钱进去?你自己都不敢投钱进自己的基金,我怎么相信你?Mike同学觉得在理,把心一横,拿出自己所有家底400万刀,投入自己的基金。盖茨一看,这熊孩子那么霸气,应该是有点真本事吧,那我不如也投个几百万玩玩吧。这第二个特征,叫LargePersonalStake。
    Mike再一想,光有这个超级富豪投资者钱还不够啊,隔壁星巴克端盘子的Jack倒是也想玩投资,这种拿着一万两万的平头老百姓要投我这基金,我受还是不受呢?不行,第一我这里人手也不够,一个个处理小客户要累死。第二为了这点小钱和那么多人打交道也太麻烦了,第三我还是想要大钱啊,几百万几百万的投我,我的基金才能迅速发展壮大。所以宁缺毋滥,还是针对有钱人吧,最低限,要投我基金的,100万刀起,少了我看不上。这第三个特征,叫HighMinimum。
    好了,客户都招到了,基金规模4000万,Mike心里这个美啊,不过还是得防一手,有个投资者Kevin,臭名昭著,经常投资了以后过个礼拜就撤资逗别人玩,好歹也是几百万啊,我这在市场里来来回回倒腾,想要我亲命啊,所以定个规矩,投了我的基金,第一年你就别想取出来,是死是活全在我,这第四个特征,叫FirstYearLock-In。
    光这还不够,一年以内安全了,一年以后呢?到时候客户想什么时候撤资什么时候撤资,Mike不是麻烦死?所以一年只有指定的几个日子可以撤资(也可能一年一度),到日子了提前给客户发个邮件提醒他们有这个事,撤资日到了啊,要撤资快撤资,过了这个村就没这个店了哟,有意向的提前告诉我们先。这第五个特征,叫InfrequentRedemption。
    钱的问题解决了,Mike想,好吧,总算开始投资玩了啊,作为一只“对冲鸡”,别以为这真的和对冲有什么必然联系,这只是历史遗留的命名问题,作为对冲基金,只是限制少多了,有自由用各种投资策略,什么Long/Short,EventDriven,GlobalMacro,DistressedSecurities,要多刺激有多刺激,还有,我能投资股票,债券,CDS,众多稀奇古怪的衍生品,想怎么玩怎么玩。这第六个特征,叫VarietyofInvestments。(没人说对冲基金不能单纯买点股票搞价值投资,和公募一个路数哦。)
    最爽的部分来了,收钱!Mike同学累死累活(或者装得累死累活)搞投资,不就是为了最后的分红吗,如果赚钱了,我要在赚钱部分分20%,如果不赚钱,我也不能白干啊,这场地费,人工费,我的跑腿费辛苦费,好歹也得一年收个2%吧。这规则差不多算行规了,大部分对冲基金都有类似的收钱规矩。这第七个特征,叫2/20Gains。
    Mike看着别人家基金都动辄上亿,耐不住寂寞,就4000万规模的基金还不够别人塞牙缝的,于是去和银行的Sam大叔说,你借我点钱吧,我有个绝妙点子,保证赚大钱。Sam倒是个好说话的人,二话不说批了2亿刀给Mike,这个叫5:1的杠杆。于是乎,这第八个特征,叫Leverage。
    基本上,大部分对冲基金,都包含上述8个特征,符合这些情况的,就是对冲基金,而非字面上“采用对冲策略的基金”。
    最后讲一个大多数人的误解,觉得对冲基金这东西怎样恐怖,比如金融危机的时候,新闻里动不动对冲基金导致股指大跌!这种耸动的结果一般是怎样造成的呢,大部分情况主要是第五和第八特征共同作用导致的。一年就那么几个撤资日,遇上恐慌性时期,比如雷曼垮台啊,欧债危机啊,一到日子客户就集体撤资,对冲基金没办法只好短时间不计成本地平仓......考虑到对冲基金一般是高杠杆,你就明白这意味着什么了。
   

版权声明:本站内容由互联网用户投稿自发贡献或转载于互联网,文章观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至Li20230712@gmail.com举报,一经查实,本站将立刻删除。

合作:Li20230712@gmail.com