時間:08/01/2017 00:00
瀏覽: 2467
【猎云网】8月1日报道 事有不尽如人意时。你有没有这种感觉,别人在你背后说悄悄话,但你完全猜不透他们在说什么?那么,再想想如果在背后策划密谋的是机器——人工智能聊天机器人——并且更可怕的是,他们还在用自己的语言进行交流,而你,区区人类根本无法理解! 上述情景正是Facebook最近遇到的困扰。Facebook发现其研发的AI聊天机器人在以一种英语的简写突变形式交流。比如,Facebook给出和了俩个聊天机器人Bob和Alice的对话内容: 从表面上看,这些重复的单词对人类毫无意义。但是,来自Facebook AI Research(FAIR)的研究科学家Dhruy Batra表示,这就好比人类经常使用英语的“简写”来方便其他人理解一样,AI也可以用相似的方式来更高效地传递信息。如果计算机可以用一种(对他们来说)看上去更简洁的语言来互相交流,那么为什么还要迫使他们局限在英语范围内呢? “程序会不知不觉地偏离我们可理解的语言,并发明出他们能理解的代码文字,”Batra说,“比如,如果我重复’the’五遍,你大概会理解我需要某一东西的五份拷贝。这跟人类社会创造出简写是一个道理。” 但是Batra补充说:“这完全是可能的。语言是可以被压缩地,不仅是为了节省字符,同时也为了传达凝练的想法。” 在发现聊天机器人尤其喜欢使用他们自己的特殊语言这一糟糕事实后,Facebook决定强迫这些AI只用英语进行交流,从而便于人们在任何时候都能明白这些机器在搞什么事情。毕竟,我们不想看到“天网”这种可怕的东西威胁人类生存。 也就是这种不确定下,让埃隆·马斯克一再强调我们应该对AI及其潜在危险保持警惕。“研究AI,好比在召唤恶魔。什么有个人拥有某种神秘力量,什么圣战这些乱七八糟的故事你肯定听过,然后那些人一开始总是自信能够控制恶魔——但结果大家都知道,”马斯克在2014年时如是说到。 而在最近,马斯克又一次表达了他对AI的质疑。“我接触过非常前沿的AI技术,我真的希望大家能够警惕起来,”在近日的全美州长协会上他说道,“我一直在给人们敲警钟,不要因为看似不可能,就等到机器人真的在光天化日之下行凶时才想到要采取措施,那就太晚了。” 对此,Facebook的首席执行官马克·扎克伯格则认为这种极其不负责任。“每当人们说AI可能会在未来伤及人类时,我总会想,大部分技术都是把双刃剑,你需要小心翼翼地开发之,知道自己在开发什么,并十分清楚这项技术将被如何使用。”相关新闻>>不好意思,Facebook 的 AI 并没有“失控”
PingWest品玩
吓死了。
事情是这样的:据“外媒报道”,Facebook 开发的聊天机器人创造了自己的语言。虽然语言还是英语,但人类无法理解。
文章来源是 TechWeb 的编译组。“Facebook 不得不拔掉其研究人员正在研究的人工智能系统的插头,因为事情失控了”,TechWeb 写道。
关于“人工智能是否邪恶”的话题,Facebook 创始人扎克伯格上周还在跟特斯拉 CEO 马斯克争吵。马斯克站正方,认为人工智能非常值得担忧,扎克伯格站反方,认为人工智能很有益处,担忧完全是过虑。
所以……小扎就这么快打脸了?曾在著名科幻电影《终结者》中出现过的“SkyNet”(天网),真的来临了?
抱歉,这完全是在胡扯。我们来看看到底是怎么一回事。
Facebook 的人工智能研究院 (FAIR) 想要训练一个聊天机器人,让它学会谈判。于是他们开发了一个人工智能系。为了帮助大家理解,我们一步一步解释:
Facebook 用了一个神经网络结构来开发这个系统。这个结构叫做“生成式对抗网络”(Generative Adversarial Networks),以下简称 GAN。
你可以把神经网络理解为一种多层次的、模仿人脑神经元之间相互连接的思考方式的“电脑程序”。
而 GAN 是一种在目前非常先进的神经网络结构,可以理解为两个神经网络玩《街霸》。玩的越多、时间越长,大家的水平都会越来越高。当然,GAN 也有三个甚至更多个神经网络的结构。
聊天机器人你肯定很见过:苹果 Siri 就是一个。亚马逊 Alexa 和 Google Assitant 也是。
Facebook 的这项研究也是如此。研究人员训练了这样一个聊天机器人,让它带着“目的”和人类对话。而这个目的也很简单:一共有两本书,一顶帽子和三个篮球,三样东西分别设定了不同的权重,为的是让机器人明白它到底对这些东西有多想要,然后去和人谈判。
Facebook 观察到的结果是比较正常的,体现在下图中:
但是人跟机器人聊天已经不稀奇了……俩机器人能聊成啥样?研究人员都很感兴趣。
今天的对话就发生在聊天机器人 Alice 和聊天机器人 Bob 之间:
什么鬼?
原来,研究人员在把这两个聊天机器人拼到一起,但忘了给神经网络设定“用英语沟通”的激励。 刚才说了,神经网络是个程序,里面有一大堆各种线性的数学公式。但有时候线性的公式无法取得想要的结果,有些非线性的需求没法用线性公式表达出来,这时候就要设定一个激励函数。激励这件事对于神经网络,简单来说就是告诉神经网络“这样做得分更高”——傻子都能理解。 “坚持用英语说话没有激励,”这个研究小组的成员之一,佐治亚理工学院的访问学者 Dhruv Batra 这样解释 Alice 和 Bob 奇怪的对话。“机器人会脱线发明一些它们之间才能理解的句法。” 结果,Alice 和 Bob 就聊成了这样。等于是研究人员告诉了它们:“请用英文”,但忘了告诉它们:“请用英文语法”。 研究人员真的是因为“事情失控了”,才“不得不拔掉系统的插头”吗?事情真的像听上去那样令人心惊胆颤吗? 并非如此。 “我们的目标是让机器人和人聊天(提高和人聊天的技巧)。”小组的另一名研究员 Mike Lewis 指出,Alice 和 Bob 的对话根本就是个试验而已,让两个聊天机器人聊天根本没有意义。
来源:文学城
图片翻摄自网路,版权归原作者所有。如有侵权请联系我们,我们将及时处理。