OpenAI 详细介绍自己如何确保安全地构建、部署和使用 AI 系统

OpenAI今天发布了一篇博文,详细介绍了其确保AI安全的方法,包括进行安全评估、改进发布后的保障措施、保护儿童和尊重隐私等。

OpenAI 详细介绍自己如何确保安全地构建、部署和使用 AI 系统

该公司表示,他们提供的人工智能工具可以提高工作效率,增强创造力,并提供量身定制的学习体验。然而,他们也认识到这些工具的潜在风险,因此他们努力确保所有系统级别的安全性。

他们不仅在推出新的人工智能系统之前进行严格的测试,还通过人工反馈强化学习等技术征求外部专家的意见,提高模型的性能。与此同时,他们建立了广泛的安全和监测系统。OpenAI积极与世界各国政府联系,探索最佳的监管形式,以确保更安全的人工智能系统的创建和发布。

以下是OpenAI博文全文:

OpenAI致力于确保强大的AI安全性,并让尽可能多的人受益。我们知道我们的AI工具已经为今天的人们提供了很多帮助。世界各地的用户向我们反馈,ChatGPT有助于提高他们的工作效率,增强他们的创造力,并提供量身定制的学习体验。但我们也意识到,像任何技术一样,这些工具也有真正的风险——因此我们正在努力确保所有系统级别的安全性。

构建日益安全的人工智能系统

在推出任何新的人工智能系统之前,我们都会进行严格的测试,征求外部专家的意见,并通过人工反馈强化学习等技术提高模型的性能。与此同时,我们还建立了广泛的安全和监测系统。

以我们的最新型号GPT 4为例。在完成培训后,我们进行了为期六个月的全公司测试,以确保它在向公众发布之前更加安全可靠。

我们认为一个强大的人工智能系统应该经过严格的安全评估。有必要进行监督,以确保这种做法得到广泛采用。因此,我们积极与世界各国政府联系,探讨最佳的监管形式。

从实际使用中学习,改进保障措施

我们尽最大努力在系统部署之前预防可预见的风险,但在实验室中的学习总是有限的。我们广泛地研究和测试,但我们无法预测人们将如何使用我们的技术或滥用它。因此,我们认为从实际使用中学习是创建和发布越来越多安全的人工智能系统的关键组成部分。

我们谨慎地一步一步向人群发布新的人工智能系统,并采取实质性的保障措施,根据吸取的教训不断改进。

我们在API中提供自己的服务和最强大的模型,这样开发者就可以直接将技术集成到他们的应用中。这使我们能够监测滥用情况并采取行动,同时制定对策。这样才能采取实际行动,而不是仅仅在理论上想象如何应对。

实践经验也促使我们制定越来越详细的政策来应对给人们带来真正风险的行为,同时仍然允许我们的技术以更有益的方式使用。

我们认为,社会需要更多的时间来适应日益强大的人工智能,每个受其影响的人都应该对人工智能的进一步发展有发言权。迭代部署有助于不同的利益相关者更有效地参与人工智能技术的对话,拥有使用这些工具的第一手经验非常重要。

保护儿童

我们安全工作的重点之一是保护儿童。我们要求人们在使用我们的人工智能工具之前,至少要年满18岁或至少13岁,并得到父母的同意。目前正在研究验证功能。

我们不允许我们的技术被用于生成仇恨、骚扰、暴力或成人内容等类别。与GPT-3.5相比,我们的最新型号GPT-4将响应受限内容请求的可能性降低了82%,我们建立了一个强大的系统来监控滥用情况。ChatGPT Plus用户现在可以使用GPT-4,我们希望随着时间的推移,更多的人可以使用它。

我们已经尽了最大努力来减少我们的模型产生伤害儿童的内容的可能性。例如,当用户试图将儿童安全虐待材料上传到我们的图像工具时,我们会阻止它,并报告给国家失踪和被剥削儿童中心。

除了我们默认的安全护栏,我们还与非盈利的汗学院(Khan Academy)等开发商合作,开发了一种人工智能助手,既可以作为学生的虚拟导师,也可以作为教师的课堂助手,为他们量身定制安全措施。我们还在研究允许开发人员为模型输出设置更严格标准的功能,以更好地支持需要此类功能的开发人员和用户。

尊重隐私

我们的大规模语言模型是在广泛的文本语料库上训练的,包括公开可用的内容、授权的内容和由人类审计员生成的内容。我们不会使用这些数据来销售我们的服务或广告,也不会使用它们来建立个人档案。我们只是利用这些数据让我们的模型更好地帮助人们,例如,通过与人们进行更多的对话来提高ChatGPT的智能水平。

虽然我们的很多训练数据都包含了可以在公共网络上获取的个人信息,但是我们希望我们的模型理解的是整个世界,而不是个人。因此,我们致力于在可行的情况下从训练数据集中删除个人信息,微调模型以拒绝个人信息的查询请求,并响应个人从我们的系统中删除其个人信息的请求。这些措施最大限度地降低了我们的模型生成包含个人信息的响应的可能性。

提高事实的准确性

今天的大规模语言模型,基于以前的模式和用户输入的文本,可以预测下一个可能使用的词汇。但在某些情况下,下一个最有可能的单词实际上可能存在事实错误。

提高事实的准确性是OpenAI和许多其他AI研究机构的重点之一,我们正在取得进展。我们通过使用ChatGPT输出中标记为不正确的用户反馈作为主要数据源,提高了GPT-4的事实准确性。与GPT-3.5相比,GPT-4更有可能产生事实内容,增幅为40%。

当用户注册使用该工具时,我们尽量做到透明,以避免ChatGPT给出错误的回复。然而,我们已经意识到,要进一步减少误解的可能性,并教育公众了解这些人工智能工具目前的局限性,还有很多工作要做。

持续研究和参与

我们认为解决AI安全问题的实际方法是投入更多的时间和资源来研究有效的缓解和校准技术,并测试它们在现实世界中可能被滥用的情况。

重要的是,我们还认为提高人工智能的安全性和能力应该齐头并进。到目前为止,我们最好的安全工作来自我们最强大的模型,因为它们更好地遵循用户的指令,更容易操纵或“引导”。

我们将越来越谨慎地创建和部署更强大的模型,并将随着我们人工智能系统的发展继续加强安全防范措施。

虽然我们等了六个多月才部署GPT-4,以更好地了解它的功能、优势和风险,但有时可能需要更长时间来提高AI系统的安全性。因此,政策制定者和AI开发者需要确保AI的开发和部署在全球范围内得到有效监管,这样就没有人会为了成功而走捷径。这是一个艰巨的挑战,需要技术和制度创新,但我们渴望为此做出贡献。

解决安全问题需要广泛的辩论、实验和参与,包括人工智能系统行为的边界。我们已经推动并将继续推动利益相关方之间的合作和开放对话,以创建一个安全的人工智能生态系统。

本文内容及图片均整理自互联网,不代表本站立场,版权归原作者所有,如有侵权请联系admin#jikehao.com删除。
(0)
极客号的头像极客号
上一篇 2023年 4月 6日
下一篇 2023年 4月 6日

相关推荐

合作联系:1152QQ041010