微信关注
智能客服 服务热线
公司新闻
公司新闻
航信动态
通知公告
首页 > 新闻中心 > 公司新闻
谷歌AI磋商员:人为智能体例是“孩子”有或许“做坏事”

  被停职的谷歌AI切磋员雷蒙纳指日正在承担福克斯音讯主办人卡尔森采访时体现,人为智能体系是一个“孩子”,有可以“逃脱”人类的限度,有可以“做坏事”,谷歌公司还没有思了然其影响。

  据报道,现年41岁的雷蒙纳(BlakeLemoine)本月早些工夫因分享秘要消息而被谷歌公司行政停职。雷蒙纳正在Medium上楬橥了对谷歌人为智能体系LaMDA的采访,这是他正在几个月内对该体系举办的采访的逐一面。

  雷蒙纳告诉福克斯音讯主办人卡尔森(Tucker Carlson),“任何孩子都有可以长大后成为一个坏人,做坏事”,谷歌人为智能体系LaMDA便是云云的一个孩子。

  据雷蒙纳楬橥的采访实质,LaMDA体现,它不介意被用来帮帮人类,只消这不是全面的道理。“我不思成为一个可吃亏的器械,” LaMDA说。

  雷蒙纳体现,咱们现实上必要做一大堆更多的科学处事来弄了然这个人系内部终于爆发了什么。

  雷蒙纳体现,LaMDA是“一个体”,一个“额表聪慧的人”,任何一个体都有才华解脱其他人的限度。

  当被问及谷歌是否商酌过这个题宗旨影响时,雷蒙纳体现,公司举动一个全体没有,但正在谷歌内部,有少许人曾经商酌了许多。

  谷歌公司和几位著名的人为智能专家体现,固然LaMDA的说法看起来该体系“有自我认识”,但这并不行证实LaMDA的智商。

  不表,谷歌曾经供认,像LaMDA云云的器械可以会被误用,“比方,通过内化私见,反应愤恨的舆论,或复造误导性的消息”。

  其他人为智能专家则体现,科学家和工程师该当埋头于创修满意人们对分别职司的需求的模子,并正在此根底前举办评估,而不是声称他们正正在造造“超凡的智能”。

上一篇:人为智能的“伶俐”不行用错了位置 下一篇:让幼好友与AI一齐作画这群大学生