AI21 推出 Jamba 1.5,增强混合 SSM Transformer 模型以实现代理 AI

AI21 推出 Jamba 1.5,增强混合 SSM Transformer 模型以实现代理 AI

AI21公司推出了Jamba 1.5,这是其Jamba模型的新版本,该模型结合了变换器(transformers)和结构化状态空间(SSM)模型方法。Jamba 1.5 mini和Jamba 1.5 large在3月份发布的Jamba 1.0的基础上进行了创新,目标是将变换器和SSM的最佳属性结合起来,以提供比单独使用任一方法更好的性能和准确性。

Jamba 1.5系列增加了包括函数调用、JSON模式、结构化文档对象和引用模式在内的新功能,旨在满足AI开发者不断演变的需求。这些功能对于构建代理性AI系统尤为重要。Jamba 1.5 mini和large模型都拥有256K的大上下文窗口,并且是专家混合(MoE)模型。Jamba 1.5 mini有52亿个总参数和12亿个活跃参数,而Jamba 1.5 large则有398亿个总参数和94亿个活跃参数。

Jamba 1.5的模型在开放许可下可用,AI21还为这些模型提供商业支持和服务。公司还与AWS、Google Cloud、Microsoft Azure、Snowflake、Databricks和Nvidia等建立了合作伙伴关系。Jamba 1.5的新功能包括JSON模式以处理结构化数据、引用以增强可追溯性、文档API以改善上下文管理以及函数调用能力。

AI21的副总裁Or Dagan强调,Jamba 1.5的引用模式与检索增强生成(RAG)不同,它提供了一种更集成的方法来实现代理性AI。Jamba 1.5的引用模式与模型的文档API紧密集成,使得模型不仅能够检索和整合相关文档,还能够明确引用其输出中使用信息的来源,从而提供比传统大型语言模型(LLM)工作流程更多的透明度和可追溯性。

来源:venturebeat

© 版权声明

相关文章

暂无评论

暂无评论...