首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

意见:人工智能触及意义障碍

机器学习算法还没有像人类那样理解事物 - 有时会带来灾难性的后果。波特兰州立大学计算机科学教授Melanie Mitchell写道:作为一名在AI工作了数十年的人,我目睹了即将到来的人类AI的类似预测的失败,我确信这些最新预测将会也不见了。在机器中创造人性智能的挑战仍然被大大低估了。今天的AI系统严重缺乏人类智能的本质:理解我们所经历的情境,能够掌握其意义。数学家和哲学家吉安 - 卡罗罗塔(Gian-Carlo Rota)有一句名言,“我想知道AI是否或何时将永远崩溃意义的障碍。“对我来说,这仍然是最重要的问题。 现代人工智能基础中出现的最近裂缝突显了机器缺乏人性化的理解虽然今天的计划比我们20或30年前的系统更令人印象深刻,但一系列研究表明,深度学习系统可能以非常不人道的方式不可靠。我举几个例子。“这位光头男子需要一顶帽子”被我手机的语音识别程序转录为“熊头人需要戴帽子”。谷歌翻译将“我把猪放入笔中”作为“Je mets le cochon dans le stylo”(在书写工具的意义上误读“笔”)。“读取”文档并回答有关它们的问题的程序很容易被愚弄,在短时间内给出错误的答案, 类似地,识别面部和物体的程序,被称为深度学习的主要胜利,当他们的输入被修改时,甚至以适度的方式通过某些类型的照明,图像过滤和其他不会影响人类识别能力的改变,也会失败。一点点。最近的一项研究表明,在脸部图像中添加少量“噪点”会严重损害最先进的脸部识别程序的性能。另一项名为“房间里的大象”的研究表明,在客厅图像的角落插入一个不合适的物体(如大象)的小图像,奇怪地导致了深度学习的视觉程序。突然错误地分类图像中的其他对象。

  • 发表于:
  • 原文链接http://tech.slashdot.org/story/18/11/06/1813258/opinion-artificial-intelligence-hits-the-barrier-of-meaning
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券