數字貨幣決策樹
1. 多地官宣試點,數字人民幣應用場景將豐富,用戶爭奪戰升級
在社會發展的長河中,一切都是更新迭代升級不斷變化的,在以前出門不帶現金哪簡直是鬧笑話,會讓你寸步難行,慢慢地互聯網普及移動支付盛行,告別了厚厚的錢包和現金時代,一部手機就可以搞定衣食住行方方面面的支付,但是我們的銀行卡要綁定在第三方平台微信或者支付寶才能完成的。
那麼他們能否留住用戶和保住地位?我想很難,畢竟資本形成壟斷是不符合經濟發展和社會進步的,一切聽從國家統一領導和指揮,在政策范圍內合理發揮才是正確的方向,未來到底會怎樣,我們拭目以待吧!
2. 什麼是分叉幣
數字貨幣的分叉就像樹木生長過程中長出新的枝幹,在比特幣的區塊鏈中,在原有的鏈條上衍生出新的產物就是分叉。
為什麼要分叉? 隨著身價的大漲,原來的區塊設定會造成又慢又堵的局面,比特幣之所以會出現分叉,是因為比特幣社區對 "比特幣擴容" 的主張不一致,有人就提出將這個欄位的最大值調高,因為不同的理念催生出了N種擴容方案,各個方案間無法統一,就會導致分叉。
比特幣的分叉有"軟分叉"和"硬分叉"的區別,可以把軟分叉當做版本更新後繼承存檔,硬分叉則是全新版本和以前的存檔無法兼容。 由於比特幣的代碼完全開源,任何人都可以對它做出改動,也可以完全套用模板發行另一些幣種,所以在發行過程中,比特幣其實有各種各樣的發展。這些小改動並不對比特幣本身構成威脅,廣大的比特幣用戶們會選擇最適合自己的版本,倘若沒有用戶支持,那麼同樣的代碼復制一份自己做些改動也只是一個人自娛自樂。 軟分叉並不會給比特幣帶來大的負面影響,畢竟多數軟體更新都只是優化用戶體驗,硬分叉則不同,當一部分比特幣用戶產生新的理念並且獲得了相當的認可,區塊鏈就出現了兩條,新生的一條在某個塊之後和另一條無法共享數據。我們把原本的區塊鏈當做A鏈,新生的區塊鏈叫做B鏈,在這樣的硬分叉後就會出現三種情況,A鏈的用戶更多,B鏈被舍棄;B鏈用戶更多,A鏈被舍棄;這兩種情況都會像是軟分叉一樣,由其中一方"繼承大統"。第三種情況,A鏈和B鏈同時有人支持,這就可以稱之為足夠硬的硬分叉了,但是比特幣到現在為止還沒有出現這種情況。
3. 如何建立自己的演算法交易
一、傳統方法
在某些假設下的顯式最優策略
【Bertsimas, Dimitris, and Andrew W. Lo. "Optimal control of execution costs."Journal of Financial Markets1.1 (1998): 1-50.】這里假設了不同的價格沖擊函數,然後求解得到最優的交易執行方案。根據參數的不同,最優的策略要麼是全部開頭賣掉、均勻減倉、或者全部最後賣掉。https://stuff.mit.e/afs/athena.mit.e/user/d/b/dbertsim/www/papers/Finance/Optimal%20control%20of%20execution%20costs.pdf
【Almgren, Robert, and Neil Chriss. "Optimal execution of portfolio transactions." Journal of Risk 3 (2001): 5-40. 】這篇文章我們專欄前面有講過,很著名的 Almgren-Chriss 模型。https://www.smallake.kr/wp-content/uploads/2016/03/optliq.pdf張楚珩:【交易執行】Almgren-Chriss Model
【Guéant O, Lehalle C A, Fernandez-Tapia J. Optimal portfolio liquidation with limit orders[J]. SIAM Journal on Financial Mathematics, 2012, 3(1):740-764.】這篇文章我們專欄前面也有講過;前面的 Almgren-Chriss 其實考慮的是使用市價單,而這里考慮使用限價單進行交易。https://arxiv.org/pdf/1106.3279.pdf張楚珩:【交易執行】限價單交易執行
【Guéant, Olivier, and Charles‐Albert Lehalle. "General intensity shapes in optimal liquidation." Mathematical Finance 25.3 (2015): 457-495.】這里也是考慮限價單進行交易,但是與前面不同的是:前一個假設限價單考慮的成交概率隨著價格指數衰減,而這里考慮了一個更加一般的形式。https://arxiv.org/pdf/1204.0148.pdf
【Cartea A, Jaimungal S. Optimal execution with limit and market orders[J]. Quantitative Finance, 2015, 15(8): 1279-1291.】這里考慮同時使用限價單和市價單進行交易,從而能夠完成 Almgren-Chriss 模型所規定的方案,或者找到一個更有的交易方案。https://sci-hub.se//https://www.tandfonline.com/doi/abs/10.1080/14697688.2015.1032543
【Bulthuis, Brian, et al. "Optimal execution of limit and market orders with trade director, speed limiter, and fill uncertainty." International Journal of Financial Engineering 4.02n03 (2017): 1750020.】也是考慮使用限價單和市價單一起交易。https://arxiv.org/pdf/1604.04963.pdf張楚珩:【交易執行】市價單+限價單 最優執行
【Cartea A, Jaimungal S. Incorporating order-flow into optimal execution[J]. Mathematics and Financial Economics, 2016, 10(3): 339-364.】這里考慮市場所有交易者的訂單都會產生線性的短期/長期市場沖擊,因此可以估計未來一段時間的訂單流向(買單總量和賣單總量的差),從而能夠在 Almgren-Chriss 模型的基礎上進行一定的調整,使得策略更優。https://sci-hub.se//https://link.springer.com/content/pdf/10.1007/s11579-016-0162-z.pdf
【Cartea Á, Jaimungal S, Penalva J. Algorithmic and high-frequency trading[M]. Cambridge University Press, 2015.】講交易執行的基礎上,更側重講了一些數學工具。
【Guéant O. The Financial Mathematics of Market Liquidity: From optimal execution to market making[M]. CRC Press, 2016.】從 Almgren-Chriss 模型開始講,一直到相應的拓展和實際的問題,十分推薦。
【Casgrain P, Jaimungal S. Trading algorithms with learning in latent alpha models[J]. Mathematical Finance, 2019, 29(3): 735-772.】市場交易者會根據不同的市場掛單和價格走勢而採取不同的反映,因此我們也可以根據歷史數據學習到各種情況下的價格後驗分布,從而更好地幫助我們進行交易執行或者套利。最後的結果可以看做在 Almgren-Chriss 模型的基礎上外加了一個調控項,反映我們對於未來的預期。https://arxiv.org/pdf/1806.04472.pdf
【Kakade, Sham M., et al. "Competitive algorithms for VWAP and limit order trading." Proceedings of the 5th ACM conference on Electronic commerce. 2004.】從在線學習的角度提出了幾個用於使得我們交易到 VWAP 價格的模型。為什麼會關注 VWAP 的交易執行?當大的流通股股東需要減持的時候,為了避免直接出售引起的價格波動,一般是把需要減持的股票賣給券商,然後由券商來拆單出售,而交易價格一般為未來一段時間的 VWAP,因此券商需要盡量以 VWAP 來交易執行。https://sci-hub.se//https://dl.acm.org/doi/abs/10.1145/988772.988801
【Białkowski, Jędrzej, Serge Darolles, and Gaëlle Le Fol. "Improving VWAP strategies: A dynamic volume approach." Journal of Banking & Finance 32.9 (2008): 1709-1722.】改進對於交易量的建模,從而得到更好的 VWAP 交易演算法。把交易量拆分為兩個部分,一部分是市場整體的交易量變動,另一部分是特定股票上的交易量模式。https://sci-hub.se//https://www.sciencedirect.com/science/article/pii/S0378426607003226
為了對稱,可以介紹一下另一種加權平均的情形 TWAP,這種情形實現起來相對比較簡單;如果不考慮市場沖擊,就拆分到每個時間步上均勻出售即可實現。
可以證明 TWAP 交易在以下兩種情形下最優:市場價格為布朗運動並且價格沖擊為常數;對於晚交易沒有懲罰(其實更晚交易意味著面臨更大的風險),但是對於最後未完成交易的懲罰較大。
【Hendricks D, Wilcox D. A reinforcement learning extension to the Almgren-Chriss framework for optimal trade execution[C]//2014 IEEE Conference on Computational Intelligence for Financial Engineering & Economics (CIFEr). IEEE, 2014: 457-464.】本專欄有講。https://arxiv.org/pdf/1403.2229.pdf
【Nevmyvaka Y, Feng Y, Kearns M. Reinforcement learning for optimized trade execution[C]//Proceedings of the 23rd international conference on Machine learning. 2006: 673-680.】比較經典的一篇,發在 ICML 上,本專欄前面有講。使用 DQN 方法,實現形式接近 DP。http://smallake.kr/wp-content/uploads/2019/01/rlexec.pdf
【Dabérius K, Granat E, Karlsson P. Deep Execution-Value and Policy Based Reinforcement Learning for Trading and Beating Market Benchmarks[J]. Available at SSRN 3374766, 2019.】使用了 DDQN 和 PPO 方法,基於生成的價格序列來進行實驗,使用特定的模型考慮短期和長期市場沖擊。https://sci-hub.se//https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3374766
【Ning B, Lin F H T, Jaimungal S. Double deep q-learning for optimal execution[J]. arXiv preprint arXiv:1812.06600, 2018.】DDQN 的強化學習解法,在美股上實驗。https://arxiv.org/pdf/1812.06600.pdf
【Lin S, Beling P A. An End-to-End Optimal Trade Execution Framework based on Proximal Policy Optimization[C]//IJCAI. 2020: 4548-4554.】使用 PPO 的解法,比較有意思的是這裡面的實驗結果顯示,使用 LSTM 和把歷史數據全部堆疊起來用 MLP 效果差距不大。也是在美股上實驗。https://www.ijcai.org/Proceedings/2020/0627.pdf
【Fang Y, Ren K, Liu W, et al. Universal Trading for Order Execution with Oracle Policy Distillation[J]. arXiv preprint arXiv:2103.10860, 2021.】在使用強化學習的基礎上,引入了一個教師網路,教師網路學習一個基於未來數據的策略,並且用於訓練學生網路。本專欄前面有講。https://www.aaai.org/AAAI21Papers/AAAI-3650.FangY.pdf
【Vyetrenko S, Xu S. Risk-sensitive compact decision trees for autonomous execution in presence of simulated market response[J]. arXiv preprint arXiv:1906.02312, 2019.】ICML-19 的文章。構造了一個可以反映市價單市場沖擊的模擬器;使用 tabular Q-learning 來學習基於決策樹的模型;使用特徵選擇的方法來篩選特徵。通過以上方式,能夠學習到一個模型幫助決策什麼時候應該下市價單、什麼時候應該下限價單。https://arxiv.org/pdf/1906.02312.pdf
【Akbarzadeh N, Tekin C, van der Schaar M. Online learning in limit order book trade execution[J]. IEEE Transactions on Signal Processing, 2018, 66(17): 4626-4641.】從 online learning 的視角來解決這個問題,使用 DP 類的方法,分析 regret 。http://repository.bilkent.e.tr/bitstream/handle/11693/50289/Bilkent-research-paper.pdf?sequence=1
【Wei H, Wang Y, Mangu L, et al. Model-based reinforcement learning for predictions and control for limit order books[J]. arXiv preprint arXiv:1910.03743, 2019.】專欄剛剛講了的一篇文章,使用 model-based 類的強化學習演算法,直接學習一個世界模型,然後讓強化學習策略通過和世界模型的交互進行學習。https://arxiv.org/pdf/1910.03743.pdf
【Karpe M, Fang J, Ma Z, et al. Multi-agent reinforcement learning in a realistic limit order book market simulation[J]. arXiv preprint arXiv:2006.05574, 2020.】這里的多智能體似乎適用於結合歷史數據生成其他市場參與者的動作,而最優策略的學習仍然是使用單智能體 DDQN 方法來做。他們開源了一個考慮多智能體的模擬環境 ABIDES。https://arxiv.org/pdf/2006.05574.pdf
【Schnaubelt M. Deep reinforcement learning for the optimal placement of cryptocurrency limit orders[J]. European Journal of Operational Research, 2022, 296(3): 993-1006.】研究數字貨幣上如何下限價單。對比了 PPO 和 DDQN,發現 PPO 更好。探索出了一些重要的因子,比如 current liquidity cost,queue imbalance 等。https://www.econstor.eu/bitstream/10419/216206/1/1696077540.pdf
【Hu R. Optimal Order Execution using Stochastic Control and Reinforcement Learning[J]. 2016.】KTH (瑞典)工程學院碩士論文。演算法直接是基於價值函數的動態規劃。不過提供了比較詳細的模擬環境和演算法偽代碼。https://www.diva-portal.org/smash/get/diva2:963057/FULLTEXT01.pdf
【Rockwell B. Optimal Order Execution with Deep Reinforcement Learning[J]. 2019.】加拿大蒙特利爾高等商學院碩士論文。使用 TD3 和 DDPG 演算法,不過實驗是基於人工生成的數據的(skew-normal Brownian motion)。https://biblos.hec.ca/biblio/memoires/m2019a628776.pdf
【Reiter M B. An Application of Deep Reinforcement Learning for Order Execution[D]. School of Engineering Science, Osaka University, 2020.】多倫多大學本科畢業論文。在使用 A3C 演算法的基礎上,考慮了使用教師學生網路的方式進行遷移學習,並且考慮了短期市場沖擊。https://mbreiter.github.io/doc/thesis.pdf
Robust Risk-Sensitive Reinforcement Learning Agents for Trading Markets
Deep equal risk pricing of financial derivatives with non-translation invariant risk measures
Optimal Market Making by Reinforcement Learning
Optimizing Market Making using Multi-Agent Reinforcement Learning
Deep Reinforcement Learning for Market Making
Deep Recurrent Q-Networks for Market Making
Robust Market Making via Adversarial Reinforcement Learning
Market making via reinforcement learning
Deep Stock Trading: A Hierarchical Reinforcement Learning Framework for Portfolio Optimization and Order Execution
Robo-Advising: Enhancing Investment with Inverse Optimization and Deep Reinforcement Learning
Large Scale Continuous-Time Mean-Variance Portfolio Allocation via Reinforcement Learning
圖書
融合對於市場環境隱變數的估計
如何實現以按量加權平均價格(VWAP)交易
以按時間加權平均價格(TWAP)交易
二、強化學習方法
基於傳統模型的強化學習方法
強化學習 + 交易執行(Paper/Article)
強化學習 + 交易執行 (Thesis)
強化學習 + 風險偏好
強化學習 + 做市策略
強化學習 + 資產組合
4. 分析下數字貨幣的利弊
數字貨幣就不擔心有假幣了,如果是說紙幣的話就擔心還有假幣。那也不擔心,出門沒帶錢。
5. ccmall是什麼
首先CCM和大家所接觸到的絕大多數區塊鏈項目都不同,因為CCM存在意義的第一個要點,就是遵循國家的法律法規,所以CCM並不是一個數字貨幣,只能稱為一個由區塊鏈技術所開發的數字通證!所有的CCM會員都不能直接通過花錢獲得CCM,想獲得CCM,你只能在CCM 旗下的各大應用場景裡面免費挖礦獲得,根據你為公司所創造的貢獻度,而釋放同等數量!
CCM是一個系統,一個生態圈,在CCM這家公司里,通過CCM 數字通證鏈接了無數個行業、無數個項目、無數個應用場景,其中每個場景都可以成為你的盈利板塊,在2019年,CCM 要打造電商,社交電商,智能支付,娛樂,廣告傳媒,培訓教育,互聯網金融等等場景,而這些應用的場景都是非常火熱的盈利項目,並且都可以通過你對該場景的貢獻度,獲得收益獎勵和挖礦CCM,讓你在收獲現金財富的同時,為未來埋下一顆金種子,一顆可以長成參天大樹的種子!
未來,隨著CCM 的應用場景越來越多,持有CCM 的人越來越多,ccm就會開始在國家的監管下,實現內部場景的價值轉化和流通,並且實現上交易所,實現資本交易,成為真正的數字貨幣!
6. 數字人民幣貨幣錢包開始推廣,推廣數字貨幣有何意義
數字人民幣的推廣,更多的像是把紙質化的人民幣變成人民日常生活中使用的貨幣,迎合人們現在使用手機的支付的這個需求,但不同於我們所使用的應用支付軟體並不存在一個中間商來轉換我們的貨幣,也不需要經過他們去更改自己的賬戶余額。
我們平常所使用的移動支付,他就是把你賬戶中的錢通過銀行或者通過這個應用支付平台轉到了另外一個人的手裡,跟國外的直接消費行為是比較像的,只不過又多了一個中間的中介平台,所以他現在哪怕普及度很高,他仍然是存在一定風險的,如果就是彼此之間類似於紙幣交換這樣的模式,不存在任何中間機構風險就會下降好多。
7. 為什麼要推廣數字人民幣
近年來,人民銀行穩步推進數字人民幣的研發試點工作,背後有其深意,從宏觀層面來說,在加密資產和全球性穩定幣的挑戰下,這是一種積極應對。
人民銀行副行長范一飛曾撰文表示:「近年來,比特幣、全球性穩定幣等加密資產試圖發揮貨幣職能,又開始了新一輪私鑄貨幣、外來貨幣與法定貨幣的博弈。因應這一形勢,國家有必要利用新技術對M0進行數字化,為數字經濟發展提供通用性的基礎貨幣。」此外,數字人民幣將大大便利人民幣的跨境清算,更好助力人民幣國際化進程,同時有利於人民銀行在傳導貨幣政策時,有的放矢更加精準。
從中觀層面來說,一方面,數字人民幣可以提高對資金流動的監管能力。數字人民幣採取可控匿名機制,人民銀行掌握全量信息,可以利用技術分析交易數據和資金流向,防範打擊洗錢、恐怖融資和逃稅等違法犯罪行為,有效維護金融穩定。但同時,人民銀行明確表示,這些追溯是可控的,用戶的隱私並不會受到侵犯。
另一方面,紙質人民幣在流通過程中容易損壞,一直需要補充和發行,同時防偽技術需要不斷提高,所以貨幣發行成本一直居高不下,而數字人民幣的出現無疑將大大節省這一成本。
從微觀層面來說,數字人民幣也將進一步提高電子支付的效率和普及度。不少小店以前有一種觀點——手續費太高,不能為銀行、微信和支付寶打工。過去,客戶刷信用卡店家要付手續費,而支付寶們提現手續費一樣不可避免。現在數字人民幣一方面不收手續費,另一方面實時到賬,有助於提高商戶資金周轉效率,解決中小企業流動性問題。
(7)數字貨幣決策樹擴展閱讀
數字人民幣的特徵
數字人民幣是真正的貨幣,其背後是國家信用,與傳統人民幣現鈔價值是1:1的對應關系,具有法償性。它和傳統紙幣一樣,只能由央行統一發行,也遵循了傳統的從中央銀行到運營機構的雙層投放體系,即人民銀行先把數字貨幣兌換給銀行或者是其他運營機構,再由這些機構兌換給公眾。
8. 銀行數據倉庫體系實踐(18)--數據應用之信用風險建模
信用風險
銀行的經營風險的機構,那在第15節也提到了巴塞爾新資本協議對於銀行風險的計量和監管要求,其中信用風險是銀行經營的主要風險之一,它的管理好壞直接影響到銀行的經營利潤和穩定經營。信用風險是指交易對手未能履行約定契約中的義務而給銀行造成經濟損失的風險。典型的表現形式包括借款人發生違約或信用等級下降。借款人因各種原因未能及時、足額償還債務/銀行貸款、未能履行合同義務而發生違約時,債權人或銀行必將因為未能得到預期的收益而承擔財務上的損失。
那如何來表示某個交易對手的信用情況呢,一般使用信用等級或信用評分來來表示,等級越低或評分越低,發生違約的概率會增加。這個信用評分主要應用在客戶的貸前和貸後管理中,貸前是指客戶貸款申請階段,銀行受理客戶貸款申請時會根據客戶提交的信息、人行徵信、其它數據源按一定的規則計算出一個違約概率和風險評分或信用等級。再根據這個評分或評級來確定客戶的授信額度和利率。計算出的評分或評級越高,違約概率越低,比如在進行個人貸前評分時主要關注以下5方面:
(1)People:貸款人狀況,包括歷史還款表現、當前負債情況、資金飢渴度等;
(2)Payment:還款來源,如基本收入、資產水平、月收支負債比、無擔保總負債等;
(3)Purpose:資金用途,如消費、買房,需要規避貸款資金用於投資或投機性質較高領域,如股票和數字貨幣;
(4)Protection:債權確保,主要是看是否有抵押物或擔保,需要看抵押物用途、質量、價格等關鍵要素;
(5)Perspective:借款戶展望,從地域、行業、人生階段等考察穩定性及潛力;
貸後是指客戶借款後銀行持續跟進客戶的信用情況,如果發現信用評分降低或者某些指標達到風險預警指標的閾值,說明風險升高,則會進行凍結額度甚至提前進行貸款收回。特別是對於逾期客戶。
風險建模步驟
在進行信用評估時如何選擇客戶屬性、如何確定評分或評級規則呢?這就需要進行風險建模,通過分析歷史數據來確定哪些特徵或指標對客戶的違約相關性大,可以了解客戶的還款能力以及還款意願。並通過一定方法來建立評分和評級的規則。那風險建模主要分為以下步驟:
(1)業務理解:主要評估當前現狀、確定業務目標,選擇建模方法,比如需要進行XX貸款產品的貸前評分模型並確定準入規則,建模方式比如為評分卡,評分應用為基於評分確定貸款准入規則以及額度和利率規則,同時需要確定分析數據的好客戶和壞客戶標准,如逾期90天以上為壞客戶;
(2)數據理解:首先需要准備建模的樣本數據,如抽取近2年的獲得類似產品的客戶相關信息以及根據好客戶和壞客戶標准確定的結果。並針對業務數據進行業務含義理解、對數據進行收集、探索,了解每個變數的數據質量、缺失情況,數據分布等。比如對於客戶在人行的徵信數據、客戶在銀行的存款、理財等信息、以及客戶申請填寫的家庭、房產信息、外部獲得的客戶教育、司法等相關信息進行業務理解和數據分布、質量的探索,對缺失值比例過大的變數或准確性不高的變數進行剔除,同時也要確定對於樣本數據中哪些數據進行建模,哪些數據進行驗證。
(3)數據准備:主要對數據進行預處理和指標加工,指標加工指基於基礎數據進行指標加工,如最近1個月的徵信查詢次數,最近1年的逾期次數等,數據預處理主要工作包括對每一個變數進行數據清洗、缺失值處理、異常值處理、數據標准化等,主要目的是將獲取的原始數據轉變成可用於建模的結構化數據。
比如對於連續變數,就是要尋找合適的切割點把變數分為幾個區間段以使其具有最強的預測能力,也稱為「分箱」。例如客戶年齡就是連續變數,在這一步就是要研究分成幾組、每組切割點在哪裡預測能力是最強的。分箱的方法有等寬、等頻、聚類(k-means)、卡方分箱法、單變數決策樹演算法(ID3、C4.5、CART)、IV最大化分箱法、best-ks分箱法等。如果是離散變數,每個變數值都有一定的預測能力,但是考慮到可能幾個變數值有相近的預測能力,因此也需要進行分組。
通過對變數的分割、分組和合並轉換,分析每個變數對於結果的相關性,剔除掉預測能力較弱的變數,篩選出符合實際業務需求、具有較強預測能力的變數。檢測變數預測能力的方法有:WOE(weight of Evidence) 、IV(informationvalue)等。
(4)分析建模:即對於篩選出來的變數以及完成好壞定義的樣本結果。放入模型進行擬合。如評分卡一般採用常見的邏輯回歸的模型,PYTHON、SAS、R都有相關的函數實現模型擬合。以下是生成的評分卡的例子。
(5)評估及報告:即通過驗證樣本對模型的預測進行校驗。評估模型的准確性和穩健性,並得出分析報告。常用的方法有ROC曲線、lift提升指數、KS(Kolmogorov-Smirnov)曲線、GINI系數等。
(6)應用:對模型進行實際部署和應用,如基於評分進行客戶准入和產生額度,並在貸款系統進行模型部署,自動對申請客戶進行評分。
(7)監測:建立多種報表對模型的有效性、穩定性進行監測,如穩定性監控報表來比較新申請客戶與開發樣本客戶的分值分布,不良貸款分析報表來評估不同分數段的不良貸款,並且與開發時的預測進行比較,監控客戶信貸質量。隨著時間的推移和環境變化,評分模型的預測力會減弱,所以需要持續監控並進行適當調整或重建。
在信用風險建模中,目前評分卡建模還是主要的方式,除了申請評分(A卡(Application score card))還有B卡(Behavior score card)行為評分卡、C卡(Collection score card)催收評分卡。B卡主要進行客戶貸後管理,如何進行風險預警,C卡進行催收管理,確定如何催收以及催收方式和時間點。信用風險模型中還有一個是反欺詐模型,它主要是識別假冒身份、虛假信息、批量薅羊毛等欺詐行為。隨著機器學習和大數據的發展,其它的一些建模方式如決策樹、深度神經網路也越來越多的應用到了風險建模中。
信用風險模型是數據倉庫支持的重要數據應用之一,在風險建模分析階段,數據倉庫是建模樣本數據以及衍生指標加工的主要提供者,業務人員一般在自助分析平台進行數據分析和建模,模型建立完成並部署後,會基於數據倉庫數據進行模型效果的監控。在貸後管理中,風險集市也會進行貸後指標的加工。另外風險模型以及預警中會經常使用到外部數據,這部分數據也是通過數據倉庫進行對接、加工和存儲。
9. 關於管理學中決策樹的問題怎麼做
決策樹法用於風險性決策,就是在比較和選擇活動方案時未來情況不止一種,管理者無法確定那種情況將發生,但是知道每種情況發生的概率。
決策樹法是用樹狀圖來描述各種方案在不同情況(或自然狀態)下的收益,據此計算每種方案的期望收益從而作出決策的方法。
舉例:
某企業為了擴大某產品的生產,擬建設新廠。據市場預測,產品銷路好的概率為0.7,銷路差的概率為0. 30有三種方案可供企業選擇:
方案1、新建大廠,需投資300萬元。據初步估計,銷路好時,每年可獲利100萬元;銷路差時,每年虧損20萬元。服務期為10年。
方案2、新建小廠,需投資140萬元。銷路好時,每年可獲利40萬元;銷路差時,每年仍可獲利30萬元。服務期為10年。
方案3 、 先建小廠,三年後銷路好時再擴建,需追加投資200萬元,服務期為7年,估計每年獲利95萬元。
問哪種方案最好?
決策樹中,
矩形結點稱為決策點,從決策點引出的若干條樹枝枝表示若干種方案,稱為方案枝。圓形結點稱為狀態點,從狀態點引出的若干條樹枝表示若干種自然狀態,稱為狀態枝。圖中有兩種自然狀態:銷路好和銷路差,自然狀態後面的數字表示該種自然狀態出現的概率。位於狀態枝末端的是各種方案在不同自然狀態下的收益或損失。據此可以算出各種方案的期望收益。
決策樹如下圖:
方案1的期望收益為:
[0.7×100+0.3×(-20)]×10 - 300=340(萬元)
方案2的期望收益為:
(0.7×40+0.3×30) - 140= 230(萬元)
至於方案3,由於結點④的期望收益465(= 95×7- 200)萬元,大於結點⑤的期望收益280(= 40×7)萬元,所以銷路好時,擴建比不擴建好。
方案3(結點③)的期望收益為:(0.7×40×3+0.7 X465 +0.3×30×10) - 140=359.5(萬元)
計算結果表明,在三種方案中,方案3最好
在復雜的決策樹中還會將利率(貨幣的時間價值因素)考慮進去,簡單建模做出決策樹以後計算收益或損失即可。
10. 決策樹怎麼畫
採納答案的方法是對的,但是數字有誤,估計是粗心了吧。
錯誤如下:
機會節點3(上午去甲):8000×0.8+(-10000)×0.2=4400
機會節點4(下午去甲):8000×0.7+0×0.3=5600
機會節點5(上午去乙):10000×0.5+(-8000)*0.5=1000
機會節點6(上午去乙):10000*0.4+0*0.6=4000
上午去甲的貨幣價值>去乙的貨幣價值 ,因為4400>1000
下午去甲的貨幣價值>去乙的貨幣價值 ,因為5600>4000
因此最佳方案為:上午下午都去甲