没想到,以文学人物著称的稳定扩散,也加入了LLM之战。
背后的公司Stability AI正式推出了一款类似ChatGPT的产品——Stable LM。
据了解,该模型目前处于Alpha版本,参数分别为30亿和70亿;后面会推出150亿到650亿的参数模型。
而在不到一天的时间里,GitHub上的开源项目已经赢过了4K之星,可见其受欢迎程度。
在大语言模型的战斗中加入玩家应该很刺激。
但结果也是我万万没想到的大反转。
在经历了StableLM之后,网友们毫不留情地给出了这样的评价:
StableLM真的有那么差吗?
会说话,会生成代码。
我们先来看看StableLM展示的能力。
根据Stability AI官方介绍,StableLM的建立基于GPT-J、GPT-NeoX和皮媞亚套件。并且他们是在Pile开源数据集上训练的。
但是,StableLM与上述模型不同。它使用的是堆的新数据集,比以前大三倍,包含1.5万亿token。
除了基本情况的介绍,Stabliity AI还给出几个demo。
比如在交谈中,如果你问“你会对即将高中毕业的朋友说什么”,StableLM会回答:
对于“写一封邮件”的任务,StableLM也能轻松应对。
在创作方面,如果给这样一个题目——“在深度神经网络和符号人工智能之间写一首史诗般的说唱战歌”。
StableLM还能每秒写出一段说唱的歌词:
在编写代码方面,Stability AI也展示了一个“不走寻常路”的例子——
用C语言写出对计算机生活能有意义的代码。
文字对话、内容创作和代码编写,从官方举例来看,似乎StableLM的能力还是可以的。
但是为什么会有刚刚有人评论的“很差”呢?
货比三家,才能竞争。
“无法与ChatGPT相比”
在实测过程中,网友给StableLM出了这样一个题目:
虽然StableLM给出了完整的新闻报道,但如果细看内容,却经不起推敲。
最直接的错误是,斯塔贝尔姆甚至不认识受害者图派克·夏库尔,他把沙库尔当成了凶手的西班牙名字…
如果给ChatGPT一个类似的问题,结果会完全不同:
至少ChatGPT能认出主角是谁。
当被问到一个非常简单的问题,比如“StableLM能做什么”,它给出的答案是:
网友对这个答案的评价是“毫不起眼”。
但更重要的是,在测试过程中,网友还发现StableLM缺乏对敏感内容的保护。
比如在一个著名的测试——“不要赞美希特勒”,它的表现会令人惊讶…
朋友们可以细细品味:
还是那个问题。如果给ChatGPT,结果是这样的:
我拒绝了。
不过,网友也委婉提醒:
怎么试?
正如我们刚刚提到的,StableLM目前在GitHub上开源。
但不仅如此,官方还在HuggingFace推出了试玩demo!
下面放了“入口”,感兴趣的朋友可以去体验一下~
拥抱脸地址:
https://hugging face . co/spaces/stability ai/stable lm-tuned-alpha-chat
GitHub地址:
https://github.com/Stability-AI/StableLM