Making The Big Decisions: ChatGPT And The Future
Sam Altman
John Werner
在通过科技世界的旅程调查之后,Sam Altman为我们提供了一些关于负责拥有像AI这样强大的技术(社会力量,政治力量等)意味着什么的见解。
当被问及在打造ChatGPT等系统时最困难的决定是什么时,Altman表示研究方向是最困难、也是最重要的。
此外,他补充说,还需要平衡尝试限制潜在危害的问题。指导AI引擎行为并为其使用设定限制,在某种程度上,他暗示,这可能是过程中最困难的部分。举例来说,他反问:“ChatGPT是否应该提供法律建议?”
“说它不应该提供似乎很合理,”Altman说道,援引幻觉和其他潜在问题。“另一方面,世界上有很多人无法负担法律咨询……(对于他们来说)也许这比没有好。”
在某种程度上,他争辩说,用户是聪明的,可以学会负责任地使用技术-但他们可能需要一些帮助。
“我们希望看到的是我们不做有高滥用潜力的事情的世界,”他说。
但要创造那样的世界说起来容易做起来难。如何确保系统有正确的限制-那种安全性真的存在吗?
Altman提出了一个有趣的想法,将技术边界与个人责任相结合,建议应该有一种指南或手册,用户必须咨询,以了解如何正确和错误地使用类似ChatGPT的东西,当然,附带一句:自担风险。
“它不会像服务条款那样,”他说,承认大多数人习惯于忽略附加到平台的长篇文档。然而,就像他所提出的,该指南将是用户入职更重要的一部分,不管这是如何执行的。
Altman还给了我们另一个例子:人们有时会煽动暴力。ChatGPT是否应该能够煽动暴力?不应该。然而,他问道,ChatGPT是否应该接受人类写的、煽动暴力的消息并将其翻译?
在那里,我们开始看到可能对每个人都不那么清晰的边界的灰色地带和有问题的性质。正如Altman所说,你可以长时间钻研“一个类别”,试图微调安全标准。但是,就像人类世界一样,AI世界也会倾向于变得混乱。
Altman提出的另一个建议是高度可定制的系统,但仍具有明确的边界。他指出,在这样的系统中,大多数用户可能不会满意其他一些用户将要使用技术的方式,但总体边界将是清晰的,并且默认值将朝着更高标准的使用。例如,我们如何使用汽车或快餐等就可以理解这一点。
但他还提出了另一个观点。
“最终,OpenAI不应该做出这些决定,”他说,暗示外部监管至关重要。我们许多人都有这种想法,但困难在于后勤。谁来监管AI?
“这个工具的目标,”Altman说,“是为其用户服务。”这在我们未来可能如何使用AI方面总结了一下:它是一种强大的力量,但它也与人类一起工作,也为人类服务。