在不断发展的人工智能世界中,引起关注的最新发展是 StableLM,这是由 Stability AI 团队创建的语言模型。这个开源项目可通过GitHub获取,一直在人工智能社区中掀起波澜,特别是与它的对应项目 ChatGPT 相比。StableLM 与 ChatGPT 的快速比较可以让您对两者有更多的了解。
ChatGPT是OpenAI开发的一系列大规模生成模型。它属于 Vaswani 等人引入的使用 Transformer 架构训练的模型系列。2017 年。以下是 ChatGPT 的技术概述,包括其架构、训练数据、方法和其他细节。
StableLM 对 AI 社区做出了重大贡献,展示了一种透明、可访问且支持性的 AI 开发方法。它旨在使人工智能技术民主化,并促进人工智能经济利益的更广泛分配。通过对效率和适应性的关注,它有望为大型专有模型提供可扩展的替代方案。
StableLM 与 ChatGPT
Venelin Valkov使用基于热门电视节目《办公室》中的角色 Michael Scott 的提示对StableLM 模型进行了测试。然后将 StableLM 生成的响应与 ChatGPT 的响应进行比较。有趣的是,虽然 ChatGPT 提供了更多针对特定字符的响应,但 StableLM 模型需要大约 8 秒才能生成响应,结果发现该响应本质上更通用。当 StableLM 模型在其他提示下进行测试时,这种模式是一致的,进一步加剧了 StableLM 与 ChatGPT 的争论。
StableLM 提供 30 亿和 70 亿个参数,并且即将推出更大的模型,这证明了 Stability AI 致力于使基础人工智能技术变得易于使用。StableLM 基础模型可以根据 CC BY-SA-4.0 许可条款自由使用和改编用于商业或研究目的。这是继开放且可扩展的图像模型Stable Diffusion之后发布的。
StableLM 的多功能性体现在它生成文本和代码的能力,使其成为各种下游应用程序的强大工具。这个新模型建立在 Stability AI 与 EleutherAI 的开源语言模型方面的经验之上,包括 GPT-J、GPT-NeoX 和 Pythia 套件。
StableLM 的突出特点之一是它的训练数据集。尽管与 GPT-3 等其他模型相比,StableLM 的尺寸较小,但由于其训练数据集丰富,它在会话和编码任务中提供了高性能。该数据集比 The Pile 大三倍,包含 1.5 万亿个内容代币。
除了 StableLM 之外,Stability AI 还发布了一组研究模型,这些模型是经过微调的指令,结合了五个最新的对话代理开源数据集。这些微调模型仅供研究使用,并根据非商业 CC BY-NC-SA 4.0 许可证发布。
人工智能社区
Stability AI 构建了 StableLM 语言模型,并致力于透明度:
透明的。我们开源我们的模型以提高透明度并培养信任。研究人员可以“深入了解”以验证性能、研究可解释性技术、识别潜在风险并帮助制定保障措施。公共和私营部门的组织可以根据自己的应用程序调整(“微调”)这些开源模型,而无需共享敏感数据或放弃对其人工智能功能的控制。
无障碍。我们针对 Edge进行设计,以便日常用户可以在本地设备上运行我们的模型。使用这些模型,开发人员可以构建与广泛可用的硬件兼容的独立应用程序,而不是依赖一两家公司的专有服务。这样,人工智能的经济效益就可以被广大用户和开发者社区所共享。对我们模型的开放、细粒度访问使广泛的研究和学术界能够开发超出封闭模型所能实现的可解释性和安全技术。
支持。我们构建模型是为了支持我们的用户,而不是取代他们。我们专注于高效、专业、实用的人工智能性能,而不是追求神一般的智能。我们开发的工具可帮助普通人和普通公司利用人工智能释放创造力、提高生产力并开辟新的经济机会。
StableLM 与 ChatGPT 的比较为了解这两种 AI 语言模型的功能和潜力提供了宝贵的见解。虽然每种技术都有其优点和缺点,但 StableLM 的开源性质及其对各种应用程序的适应性使其成为人工智能领域有前途的竞争者。