计算机行业2025年度投资策略:AI发展星辰大海,信创自主可控高确定性.pptx

计算机行业2025年度投资策略:AI发展星辰大海,信创自主可控高确定性.pptx

  1. 1、本文档共53页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

AI发展星辰大海,信创自主可控高确定性

——计算机行业2025年度投资策略;

市场回顾:业绩上看,2024年前三季度计算机板块业绩有所承压;估值上看,目前的PE仍具备估值弹性。2024年前三季度计算机板块总体营收同比增长4.6%,归母净利润-1亿元,上年同期为70亿元。截至2024年10月25日,计算机指数PE(TTM,剔

除负值)45.9倍,比过去十年中位数水平(50.1倍)低8%。

我们认为,全年主线将围绕AI和信创展开:

1、AI:ChatGPT开启AI领域“iPhone时刻”,互联网厂商、三大运营商和智算中心对算力投入持续增加,重点关注算力线。

1)算力层:建议重点关注中科曙光、浪潮信息、紫光股份、神州数码、华孚时尚、创业黑马等,算力测试和检测厂商淳中科技,以及光模块厂商中际旭创、新易盛、天孚通信等。(2)应用层:建议关注金山办公及其他卡位核心的应用软件,如虹软科技、新国都、奥飞娱乐、万兴科技、当虹科技、福昕软件、同花顺、彩讯股份等;以及未来行业边界打开、有板块性价值重估机会的游戏板块。(3)MaaS层:建议关注科大讯飞、三六零等。

2、信创:工业重点领域出台信创支持政策,安全可靠测评工作指南发布,近期信创大单持续落地,随着信创完成时间节点临近,关注行业回暖和订单落地情况。

(1)基础硬件:建议关注中科曙光、中国长城、神州数码等。(2)基础软件:数据库建议关注达梦数据、太极股份、海量数据等,国产操作系统建议关注中国软件、麒麟信安、软通动力、润和软件等。(3)应用软件:建议关注金山办公、顶点软件等。

风险分析:IT投资不达预期的风险,AI、信创等相关产业进展不达预期的风险。;

1、市场回顾:业绩承压,估值弹性高

2、AI:大级别的科技革命

3、信创:二阶深化,关注行业信创及乡镇下沉

4、投资建议

5、风险分析;

1.1估值仍具弹性:当前PE比过去十年中位数低8%

1.2风格转移:24年中大市值公司表现更优

1.3配置略低:2024Q3公募基金低配2.6pp

1.42024年前三季度计算机板块业绩??所承压;

2023年,计算机板块表现强于创业板和沪深300指数。计算机指数上涨9%,同期创业板指数下跌19%,沪深300指数下跌11%。

图1:2024年年初至今计算机板块上涨6%(截至2024.10.25);

2024年年初至今,计算机板块涨幅在所有中信一级行业中位列第16名。2023年计算机板块涨幅在所有中信一级行业中位列第6名。

图2:2024年年初至今计算机板块涨幅位列中信一级行业第16图3:2023年计算机板块涨幅位列所有中信一级行业中第6名;

图5:当前计算机指数(中信)PS-TTM为2.4倍(2014年10月24日-2024年10月25日)

计算机指数PS-TTM为2.4倍,比过去十年的中位数水平(3.3倍)低26%,比过去十年25%分位数(2.7倍)低10%,估值具有相当大的弹性。;

证券代码;

与2023年相比,2024年年初至今,中大市值计算机公司的市场表现更为优异。

具体而言,市值处于100亿至200亿区间以及200亿以上的计算机公司,其年内平均涨幅分别为14%和9%,均超过了2023年全年的涨幅水平。

相比之下,市值在1亿至100亿(含)之间的小市值计算机公司,在2024年至今的涨幅为6.5%,相较于2023年全年30%的涨幅稍显不足。;;;

图10:2020-2024年前三季度板块归母净利润(亿元

)及增速;

板块名称;

2.1模型:ChatGPT开启AI领域“iPhone时刻”;

逾半世纪积累,Transformer横空出世。

图11:人工智能技术发展进入到落地应用阶段;

逾半世纪积累,Transformer横空出世:

1)数据量和多样性;

2)大幅降低训练成本、提升训练效率;

3)Transformer架构使得模型在GPU上进行大规模训练成为可能。;

基于Tranformer架构的NLP技术发展的模型,GPT与BERT“之争”:

BERT:基于编码器的双向语言模型。可以同时利用上下文信息进行预测,是自然语言理解任务中的基准模型。Transformer的Encoder模块构成,采用预训练和微调两

您可能关注的文档

文档评论(0)

沧海一粟2020 + 关注
实名认证
内容提供者

文不能提笔控萝莉,武不能骑马战人妻,入佛门则六根不净,入商道则狼性不足,想想还是做文字民工!

1亿VIP精品文档

相关文档