江西:明确风光项目开发分为优先、限制及禁止发展三大类
近日消息,谷歌公布了一项重磅研究进展:通过结合更强大的人工智能(AI)大型语言模型,进一步提高机器人的“智商”。
如今机器人已经随处可见,它们的身影也出现在世界各地的工厂中。不过,这些机器人只能遵循待定指令,专注于完成简单的预编程任务。但是谷歌的机器人似乎有所不同,它们可以接受简单命令并完成更复杂的任务,看起来像人类。
谷歌实验室的研究人员最近展示了新的机器人技能,用各种塑料玩具原料制作出汉堡。这个机器人了解烹饪过程,知道要在肉之后和生菜之前加入番茄酱,但他认为正确的方法应该是将整个瓶子放进汉堡里。
虽然这个机器人并没有真正意义上完成一个汉堡,但是这对于机器人的发展来说是一个很大的突破。换而言之,是谷歌让机器人和大型语言模型学了本事,会自学了!这个机器人不仅能听懂你说的话,还能相应付出行动。以后不用等命令,想做什么,只需吩咐它一句。
用语言模型做“大脑”,机器人充当“手”与“眼”,研究人员表示,这类机器人现在不再需要接受一连串的分析指令,然后一个接一个地指导它们完成每个动作,将PaLM-SayCan集成到机器人中后,机器人通过使用思维链提示和执行请求所需的分步解决方案,能更好地执行复杂、抽象的任务,根据自身能力权衡接下来最合适的执行步骤,并实现高度可解释的行动结果。
显而易见,谷歌为此项目投入了大量资源,而当我们在感叹科技的进步同时也引发担忧——这项研究是值得的吗?
首先,众所周知,这个新系统所依赖的大语言模型,而论起其背后涉及到社会、伦理、公平、数据泄露和信息安全等问题时,它是否能够处理得得心应手呢?
在PaLM-SayCam实验清楚地表明,研究人员就已经提出有21个问题需要更新。比如大型语言模型会建议人自杀,或者签署种族灭绝协定,或者它们可能带毒。而且它们对训练集的细节非常(过度)敏感——当你把这些训练集放进机器人里,如果他们误解了你,或者没有充分理解你要求的含义,他们可能会给你带来大麻烦。
值得称赞的是,PaLM-SayCan 的工作人员至少能想到预防这种情况的发生。对于机器人那里传来的每一个请求,他们都会进行一种可行性检查:语言模型推断出用户想要做的这件事,是否真的可以完成。但是这就万无一失了吗?如果用户要求系统将猫放入洗碗机,这的确是可行的,但安全吗?合乎道德吗?如果系统误解了人类,也会发生类似的问题。
比如,如果人们说「把它放在洗碗机里」,而大语言模型将「它」的指代对象视为单词cat,而用户指的是别的东西。从对大型语言模型的所有研究中,我们会了解到:它们根本就不够可靠,无法让我们100%地清楚了解用户的意图。误解是无法避免的。如果不对这些系统进行真正严格的检查,其中一些误解可能会导致灾难。
现实情况是,目前还没有可行的办法能够解决许多困扰大型语言模型的「alignment」问题,其与我们真实世界还存在鸿沟。除此之外还有更多的问题亟待我们去思考,如果真的解决了机器人独立思考、解决问题的难题,未来在机器人拥有人类的学习能力和理解能力,并且具有思考人类下达指令的能力的情况下,同时还要完全服从人类时,这时候人类真的还能“驾驭”具有同样智慧的机器人吗?并且只具有思考和理解学习等能力,而把人类具备的情感能力单独摘出来,这时机器人还能成为人类的帮手吗?
-
王世江:未来供应链需转向分散化和多元化
2022-08-19 -
完美收官,众多机器人明星企业亮相ITES深圳工业展
2022-08-19 -
国家能源集团大渡河应用遥感技术开启地灾监测天空之眼
2022-08-16 -
一半多人都在山西内蒙!氢能行业看重北方区发展机会
2022-08-15 -
2022 上半年“四大家族”财报分析:工业机器人订单剧增、交付艰难、利润不一
2022-08-12 -
智能扫地机器人有哪些分类?
2022-08-11 -
科技赋能,国产四足机器人成“香饽饽”
2022-08-11 -
狂热的机器人,“减速”的绿的谐波
2022-08-09 -
仁洁智能完成高瓴创投领投Pre-A轮融资,助力解决光伏电站清扫难题
2022-08-09 -
“梅花桩”精确踩点!腾讯发布四足机器人Max二代版本
2022-08-08 -
浙江杭州供电公司应用机器人 带电作业更便捷
2022-08-08 -
国网空间技术公司完成特高压密集通道山火隐患普查分析
2022-08-05 -
给特斯拉机器人的星辰大海泼盆冷水
2022-08-04 -
三星拟2030年建成“无人工厂”,机器人需求大增
2022-08-03 -
包装机器人使用注意事项有哪些?
2022-08-03