前开放AI研究人员开发出一款新软件,帮助机器人理解和与物理世界交互
2024 年 5 月 14 日

前OpenAI研究人员开发了一种新软件,可以帮助机器人理解和与物理世界互动。

人工智能(AI)和机器人的使用在流行小说中得到了广泛探讨。关于机器人照顾基本人类任务的整个概念已存在很长一段时间,电影和电视节目对此进行了广泛尝试。2024年,像ChatGPT、Gemini和Bing AI这样的工具,这种虚构概念似乎正逐渐接近现实。现在,有报道称前OpenAI研究人员联手开发了一种新软件,将帮助机器人更加了解其物理世界,并对语言有更深入的理解。

根据《纽约时报》的报道,由前OpenAI研究人员创立的机器人技术初创公司Covariant正在将用于聊天机器人的技术开发方法应用于构建帮助机器人导航和与物理世界互动的人工智能。Covariant并非建造机器人,而是专注于创造为机器人提供动力的软件,首先是在仓库和配送中心中使用的机器人。

该技术还让机器人对英语有广泛的理解,让人们能够像与ChatGPT交谈一样与它们交流。

Covariant开发的AI技术使机器人能够通过对物理世界有广泛的理解来拾取、移动和分类仓库中的物品。《纽约时报》的报道补充说,该技术还将帮助机器人更好地理解英语,使用户能够像与ChatGPT互动一样与它们聊天。换句话说,这家初创公司似乎正在为机器人开发ChatGPT。这款病毒式AI工具由OpenAI在2022年推出,并因其类人响应而广受欢迎。

与ChatGPT和其他AI工具类似,Covariant的AI技术通过分析大量数字数据来学习。该公司表示,多年来已从仓库的摄像头和传感器中收集数据,使机器人能够了解周围环境并处理意外情况。

报道还提到,该公司的技术被称为R.F.M.(机器人基础模型),它结合了图像、传感器输入和文本的数据,为机器人提供了更全面的环境理解。例如,该系统可以生成预测机器人行动结果的视频。然而,该技术尚不完美,可能会出现错误。

Covariant的目标是首先在仓库机器人中部署其技术,并且已经获得了大量资金进行开发。该公司的方法涉及通过广泛数据分析来教导机器人,使它们能够适应各种情况。随着研究人员继续使用更大规模和更多样化的数据集来训练这些系统,他们预计技术将快速改进,使机器人能够处理物理世界中的意外情况。

与此同时,我们现在都知道AI在某种程度上是一把双刃剑。专家们一再警告,如果使用不当,它可能会造成危害。

《纽约时报》的报道还引用了AI专家Gary Marcus的话,他对技术走向错误表示警告。他说,该技术在仓库等容忍错误的环境中表现出潜力。然而,在更危险的环境中部署,比如制造厂,可能会带来更大的挑战和风险。他说,在涉及可能造成伤害的150磅机器人的情况下,与错误相关的成本将成为一个重要考虑因素。

作者:

Divyanshi Sharma

发布日期:

2024年3月12日