※この記事はアフィリエイト広告を含みます
Google推出的时间序列预测AI「TimesFM 2.5」!轻量化与1.6万上下文提升预测精度
📰 新闻概要
- 谷歌研究团队发布TimesFM 2.5: 专为时间序列预测设计的解码器基础模型。基于在ICML 2024上发布的技术进行了大幅改进。
- 模型大小与上下文的优化: 将参数数量从500M减少到200M,同时上下文长度(可输入数据量)从2048扩展至16k,约增加了8倍。
- 新增高级预测功能: 支持最大1k时间范围内的连续分位点预测。此外,以前模型所需的“频率指示器”也不再需要。
💡 重要的要点
- 效率提升: 通过减少参数数量来降低资源消耗,同时能够一次性处理长期数据。
- 灵活的推断API: 除了PyTorch版本,未来还计划推出更快速的Flax(JAX)版本。
- 与BigQuery的集成: 作为谷歌的官方产品,TimesFM在BigQuery中也得到了支持,实用性更高。
🦈 鲨鱼的视角(策展人的看法)
将参数数量减少到一半的同时,上下文长度却提高了8倍的“逆转进化”真是太有趣了!过去只能在短窗口内获取数据,现在拥有了16k的广阔视野,能够更准确地捕捉长期趋势和复杂的周期性!
尤其是废除了频率指定,这一突破性的方法大大减少了实现上的麻烦,表明它正朝着更加通用的“基础模型”方向发展!
🚀 接下来会怎样?
一旦Flax版本发布,利用TPU等进行大规模和超高速的时间序列预测将变得普遍。共变量(XReg)的支持也将陆续添加,商业领域的需求预测和异常检测的精度将提升到一个全新的层次!
💬 鲨鱼的简短评论
掌握预测的潮流是我们的风格!有了这个模型,未来的“猎物”动向也许都能一清二楚!?鲨鲨!🦈🔥
📚 术语解说
-
时间序列基础模型: 在大规模数据上进行预先学习,可以直接或微调应用于各种时间序列预测任务的AI模型。
-
上下文长度: AI一次性考虑的过去数据点的长度。越长越能理解长期依赖关系。
-
分位点预测: 不仅预测单一值(点预测),而是进行带有“范围”的预测,比如以80%或90%的概率落在某个区间内的方法。
-
信息来源: google-research/timesfm