Groq的语言处理单元(又称“LPU”)基本上是“老树开新花”的典型例子。
虽然这项技术背后的公司Groq(不要与X的AI机器人Grok混淆)成立于2016年,但直到2024年初,LPU才作为下一个重大事件出现在舞台上——特别是对于大型语言模型(LLMs)而言。
在备受欢迎的All-In Podcast上发表讲话时,Chamath Palihapitiya提到了Groq的新兴流行:“这可能意味着什么都不是,但它有潜力成为非常具有破坏性的东西。”Palihapitiya是风险投资公司Social Capital的创始人兼首席执行官,该公司于2016年首次投资于Groq。他表示,Groq上次估值,“对公司来说是一个非常重要的时刻,非常令人兴奋”,超过了10亿美元。
“基本上,两个月前我们没有任何客户,我只是坦诚地说,”Palihapitiya告诉他的播客共同主持人。从那时起,Groq已经获得了大约3000个尝试使用Groq资源的独特客户,“从每一个重要的《财富500强》到开发人员。”
总部位于硅谷的Groq通过速度与其顶级竞争对手(现在是2万亿美元巨头)NVIDIA区分开来。
帕利哈皮提亚将标准中央处理单元(CPU)描述为“所有计算的工作马”。他发现CPU在某些任务上表现不佳,因此NVIDIA开发了图形处理单元(GPU),这种处理器更适合处理多个任务,例如生成游戏中使用的图像。
Groq创始人乔纳森·罗斯希望通过制造更小、更便宜的芯片来超越GPU的创新。这些特性使它们成为驱动LLMs的最佳选择。
特别是,Groq的LPU在推理方面表现出色,以一种令用户满意的方式检索(有希望的)答案(即以非常低的成本和非常快的速度)。
企业传播专家Lulu Cheng Meservey在X上观察到:“有些人将以输出质量来评判Groq,所以团队应该不断提醒人们,重点不是要将[Mistral]与Llama或其他东西进行比较,而是每个模型在Groq上运行速度都比其他芯片快。”
对于由AI驱动的翻译而言,LPU的速度可能是一个改变游戏规则的因素,促进了迄今为止难以实现的消费者产品中所期望看到的“即时”翻译。
曾担任Language Weaver公司总经理的米哈伊·弗拉德告诉Slator,Groq已经将GPU从“专用硬件”提升到“通用”。
“Groq的超快推理正在消除困扰LLMs应用程序的缓慢响应时间,”他补充说。“仅仅使用LLMs进行实时翻译?我们已经快到了。”
(机器翻译,轻度译后编辑,仅供参考)
编辑:刘煜珍