Transformer论文作者创立企业发布开源模型

Transformer论文作者创立企业发布开源模型

由开创性Transformer论文的两位作者创立的AI初创企业Essential AI Labs发布了其首个模型,试图在中国参与者主导该人工智能细分领域时推动美国的开源发展。该公司在网络发文中表示,这个以著名数学家斯里尼瓦萨·拉马努金命名的模型Rnj-1是零开始构建和训练的。公司宣称,尽管仅使用80亿参数,该模型仍能提供前沿匹配的编码、数学和代理推理能力。该实验室由阿希什·瓦斯瓦尼和尼基·帕马尔创立,他们是2017年发表的突破性研究论文《Attention is All You Need》的作者之一,该论文发表时他们任职于谷歌担任研究科学家。Rnj-1的设计旨在经济高效地利用计算资源,同时在实际场景中执行代理任务,并可在消费级GPU上运行。

—— 彭博社

*

发表评论 (0)
后一页 前一页