- 1、本文档共20页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
正文目录
Transformer 算法 4
算法简介 4
Transformer 工作流程 4
Transformer 特征工程 7
数据采集与处理 7
输入因子构建 7
模型训练 8
训练数据 8
样本划分 8
超参数选取 9
拟合优度 9
实证检验 13
3.1 中证 1000 股票池 13
3.2 中证 500 股票池 14
3.3 沪深 300 股票池 16
全市场股票池 17
Transformer 与其它模型比较 20
结论与展望 20
参考文献 21
风险提示 21
图表目录
图 1: Transformer 框架 4
图 2: Transformer 编码器、解码器结构 5
图 3: Encoders- Decoders 堆叠 5
图 4: Encoder 内部结构 5
图 5: Self-Attension 机制流程 6
图 6: Self-Attension 矩阵运算 6
图 7: Query, key, Value 矩阵运算 6
图 8: Transformer 算法流程图 7
图 9: 三角式位置编码 9
图 10: 位置编码对应损失函数 10
图 11: 位置编码对应多头年化收益 10
图 12: 不同时间步长损失函数(时间步长 T:1, 3, 6) 10
图 13: 不同时间步长多头组合年化收益 10
图 14: 不同 Encoder 层数损失函数 11
图 15: 不同 Encoder 层数多头组合年化收益 11
图 16: 增加 Dropout 前后模型样本内损失函数 11
图 17: 增加 Dropout 前后模型多头年化收益 11
图 18: 本文使用的 Transformer 模型架构 12
图 19: 注意力热度图 12
图 20: 中证 1000 多头组合净值表现 13
图 21: 中证 1000 股票池 Transformer 算法分组测试 13
图 22: 中证 500 多头组合净值表现 14
图 23: 中证 500 股票池 Transformer 算法分组测试 15
图 24: 沪深 300 多头组合净值表现 16
图 25: 沪深 300 股票池 Transformer 算法分组测试 16
图 26: 全市场股票池多空组合净值表现 17
图 27: 全市场股票池多头组合超额收益 18
图 28: 全市场股票池 Transformer 算法分组测试 18
图 29: 全市场股票池 Transformer 打分 IC/IR 19
图 30: 各特征工程算法模型净值对比 20
表 1: 因子池及定义 8
表 2: Transformer 模型超参数选择 9
表 3: 中证 1000 股票池 Transformer 算法分组绩效指标 14
表 4: 中证 500 股票池 Transformer 算法分组绩效指标 15
表 5: 沪深 300 股票池 Transformer 算法分组绩效指标 17
表 6: 全市场股票池 Transformer 算法分组绩效指标 19
Transformer 算法
Transformer 算法通过 ChatGPT 展示出了其在自然语言任务中的强大性能。股票投资场景和自然语言任务有内在相似的地方,比如金融时序任务可以被看作 Seq2Seq 任务,而Transformer 正是该领域的主力算法。因此,本文尝试在股票投资场景探索 Transformer 算法的使用。
算法简介
Transformer 算法是自然语言处理(NLP)任务所流行使用的深度学习模型。它在机器翻译,文本生成等任务中取得了显著的突破,并逐渐成为 NLP 领域的重要模型。为人熟知的 ChatGPT, BERT 等模型的底层算法就是 Transformer。
在此之前,循环神经网络(RNN)和卷积神经网络(CNN)是常用于 NLP 任务的模型。然而,RNN 存在难以并行计算和处理长距离依赖的问题,而 CNN 则对输入序列的长度有限制。这些问题限制了它们在处理长文本序列时的效果。
Transformer 算法通过引入自注意力机制(self-attention)来解决这些问题。自注意力机制允许模型在处理每个位置时,能够同时考虑到输入序列中的其他位置,从而捕捉到更长距离的依赖关系。此外,Transformer 还使用了多头注意力机制(multi-head attention),通过并行计算多个注意力头来提高模型的表达能力。
Transformer 的核心思想是将输入序列映射为多维空间中的表示,然后通过多层的自注意力和前馈神经网络进行信息的传递和变换。最终,通过解码器将表示映射回目标序列, 实现翻译或其他 NLP
您可能关注的文档
- 汇添富基金指数产品月报:8月指数产品建议关注中药ETF、云计算产业指数等.docx
- ETF基金的发展现状、持仓规律与未来展望.docx
- 境外机构债券配置行为分析.docx
- 机器人“动力源”,看好国产电机持续突破.docx
- 机器人产业有望迎来跨越式发展加速期.docx
- 机器人电机行业深度研究:机器人动力之源,人形孕育新市场.docx
- 机器人行业人形机器人零部件力传感器,机器人高精度力控方案核心部件.docx
- 集聚投资有效性,构建DATALET数据资产.docx
- 液压传动,机械大力士.docx
- 机械设备行业2023年中报业绩前瞻:预计业绩增长比例超50%,基金持仓低配幅度缩窄.docx
- 2025年山东英才学院单招(计算机)测试题库及答案1套.docx
- 2025年四川邮电职业技术学院单招计算机测试题库最新.docx
- 2025年安徽省淮南市单招计算机测试题库最新.docx
- 2025年无锡南洋职业技术学院单招(计算机)测试模拟题库最新.docx
- 2025年宁夏建设职业技术学院单招计算机测试题库推荐.docx
- 2025年唐山工业职业技术学院单招计算机测试题库必考题.docx
- 2025年山东圣翰财贸职业学院单招计算机测试题库推荐.docx
- 2025年山西职业技术学院单招(计算机)测试题库及答案1套.docx
- 2025年徽商职业学院单招(计算机)测试模拟题库最新.docx
- 2025年安顺职业技术学院单招(计算机)测试题库附答案.docx
最近下载
- 人教版二年级下册数学计算题专项练习1500题带答案.docx VIP
- 虚拟语气专项练习(附答案).docx VIP
- 深入了解胰岛素PPT课件.pptx
- GB_T 4728.2-2018电气简图用图形符号 第2部分_ 符号要素、限定符号和其他常用符号.pdf
- 蒸压加气混凝土板轻质隔墙施工方案ALC板、NALC板.docx
- 一年级下册道德与法治课件-第2课《我们有精神》第2课时说课人教版.ppt
- 2020 生态环境保护隐患排查治理工作规定.doc
- 《高血压危象护理》课件.pptx VIP
- 《GBT 13894-2023石油和液体石油产品 液位测量 手工法》最新解读.pptx
- 基于改进粒子群算法的光伏逆变器控制参数辨识.docx VIP
文档评论(0)