先前 Google 的软体工程师 Blake Lemoine 声称拥有人工智慧(AI)的聊天机器人 LaMDA 出现了自我意识,就像个真正的孩子。这个言论一出立刻引发了大规模争论,尔後,Google 直接解雇了这位员工。
究竟 AI 到底能不能发展出属於自己的意识?现在的发展又到哪里了?就让 Google 台湾前董事总经理简立峰来为我们解答!
AI 到底有没有意识?它们竟然拥有认知能力了?
说到 AI 到底是否已发展出自己的意识,简立峰直言「想太多了。」正是因为人类不了解自己,对於 AI 过度期望跟害怕,才会得出错误的结论。
回想二、三十年前,「可以将语音辨识成文字」似乎难如登天,但如今语音输入却十分常见。这次的事件中,工程师使用了「sensible、有感觉的」这个词汇,跟过去讨论的认知有些差异。能做语音辨识、机器翻译都是「认知」的一部分,然而,工程师却宣称 AI 有感觉。
简立峰解释道,直到目前为止,AI 就是在进行机器学习,逻辑上是输入什麽资料、得到什麽结果。因此,即便它们有时可能在问答时回答得不错,却并不是跟人类一样有感觉。
且这个话题也能让我们得以思考:如果今天 AI 变得真正聪明时,我们应该用人的角度去看吗?毕竟,机器不是为了模拟人,如今 AI 早就有很多能力比人类强,我们不会却不会对此感到害怕,只是怕它变得跟人一样。
测试 AI 最有名的思想实验当属「图灵测试」,透过对话确认机器是否和人类一样具有智慧。对此,简立峰表示,对於机器学习了解不够深、有过高期待就会觉得结果很厉害,而这其实是人类自我投射的结果,归根究柢,那些呈现的都仍是机器学习的结果。
能处理语言却不是真正理解!AI 在语言辨识上走到哪了?
简立峰分享了「Progress in AI」的分析,目前,在「语音辨识能力」方面,机器与人是接近的;「电脑视觉能力」则有超越人类的物体辨识力;赢过人类最多的则是「棋力」;而在「语言理解能力」层面,机器却远远输过人类。
虽然 …