“养龙虾”热到基金圈公募正经历一场深刻工作流革命
===2026/3/18 1:36:12===
判断趋势、更有效地控制风险。简单来说,拼的不单单是算力、拼的更多是算法,这也是基金经理个人阿尔法和基金公司投研壁垒的核心来源。
王悦表示:“我们更看重投研人员思考的深度,而非信息整理的广度。因此投研人员要做的是问出那个关键的问题,而不是得到一个信息尽可能齐全的答案。信息永远是无穷无尽的,找到最核心的那个变量并敏锐地抓住它,才是投研人员超额收益的来源。”
车宏原也表示,AI通过自动化处理多种模态的信息,有助于提升信息处理的效率,使得研究员必须向深度逻辑推演、产业洞察和交叉验证等高阶能力转型,因此,有望推动投研体系向人机协同的网状结构进化,改变“研究员推票—基金经理决策”的线性架构。投研人员有望与AI共同进行线索挖掘、策略构建和风险把控。
“我们不会被AI取代,但我们一定会被熟练使用AI的人所取代;特别是在投研这样一个科学与艺术交织、理性与感性共存的工作领域。”前述华南公募基金经理表示,“站在公司层面构建投研壁垒,核心还是要打造一套与公司相适配的生态;而要构建这个生态,需要有好的机制、文化、人才以及工具等,而这里的工具,未来一定是和AI相关的。最终在这个环境中,大家各自发挥所长,又在统一的平台上汲取信息的养分,最终构成一个协调统一的生态。”
拥抱效率亦需警惕风险
AI的助力,无疑让投研日常工作事半功倍,但多家公募基金已经深刻体会到,AI是一把双刃剑——它能极大提升投研效率,但也隐藏着诸多风险,这些风险如果不加以重视和管控,很可能导致投资损失。
益民基金数量金融实验室指出,需要警惕AI模型的“黑箱风险”,这是最核心、最需要警惕的风险。当前,大部分AI模型(尤其是深度学习模型的运行逻辑是“不可解释”的,即只知道输入数据和输出结果,但不知道模型是如何得出这个结果的,这就是“黑箱问题”。
该实验室认为,这种风险主要体现在两个方面:一是因子挖掘的“伪有效”,AI可能会挖掘出一些看似具有显著性的因子,但这些因子其实是“历史拟合”的结果,在未来的市场环境中无法产生收益,甚至会导致亏损;二是决策建议的误导性,AI可能基于错误的逻辑或偏差的数据,给出看似合理的决策建议,如果基金经理盲目依赖,可能会做出错误的投资决策。比如,AI可能因为某只个股的历史数据表现良好,就给出“买入”建议,但忽略了该个股当前的基本面已经发生恶化,这种“黑箱误导”可能带来不小的投资损失。
=*=*=*=*=*=
当前为第6/7页
下一页-上一页-
=*=*=*=*=*=
返回新闻列表
返回网站首页