DeepMind 的阿发狗(AlphaGo)已经总比分4:1战胜李世乭,加上之前 Boston
Dynamics 的 Atlas
机器人逆天的表现,许多网友就已经惊呼,机器人、人工智能战胜、取代人类的日子不远了,也有专家学者认为强人工智能的出现会大大早于大多数人的预期。
同时,各种限制技术进步、捣毁机器的卢德主义论调又重新抬头。
其实现在还不必如此忧心忡忡,机器取代人类这一天不会这么快到来——虽然也许比想象的要快一点。
人工智能已在国际象棋、围棋项目上战胜人类,但这些项目相对人类目前处理的事务,仍然非常简单:
面对的问题和目标非常简单,相当于比较双方积分(比如目数)的不同,积分胜过对方即可,不会面对多种不同类型的复杂问题组合,不会有道德冲突、价值冲突之类的艰难选择;
过程相对简单,范围可控,变量简单,控制简单,输入和输出都非常明确、可量化,而且不必考虑随机出现的意外因素,以及各种未知风险,更不用说要处理信息来源可信度和沟通复杂度的问题;
控制非常简单,毕竟有人类代为落子,不用考虑操作失败、偏离、不可控因素导致的结果偏离;
有大量已知的经验材料可供学习,不用自己完全从头摸索规则内的最优解(虽然理论上阿发狗可以通过互相博弈探索最优解,但在更加开放、复杂的问题上未必能做到);
……
目前阿发狗为代表的人工智能背后有蒙特卡洛树搜索(Monte Carlo tree
search)+强化学习(Reinforcement Learning)+深度神经网络(Deep Neural
Networks)+快速走子(Fast
Rollout)等技术,擅长在既定规则和完全信息下,通过大量学习,评估形势,在一定时间限制内高效率地找到满足给定目标的较优策略。
其中几个关键点有:
1、需要判别、筛选材料是否可用于学习
2、需要映射现实世界的实体和概念为虚拟世界的对象,然后才能谈到可识别、可理解
3、需要量化现实世界的反馈,才能用于评估形势
4、需要理解规则,确定行动目标,才能设立、选取相应的量化函数来评估形势
至少到目前为止,以上几点都无法完全脱离人类的参与和经验,即使有超出人类经验和理解的出色落子,本质上还是按给定的方法解决特定的问题,和人类目前的智能水平还有很大差距,远远无法胜任许多复杂的现实任务,取代人类智力的工作。
尤其重要的是最后一点中的“目标”——当人工智能行动的所有目的都是人类指定的目标时,人工智能依然还是人类智能的工具,而不是竞争者。
如果人工智能可以:
1、在目标确定的情况下自己创造性地发展算法
2、可以建立专属于自己的概念、知识体系,不依赖人类世界观标准的输入而自主学习探索客观世界
3、自己建立和优化超出于围棋等智力活动的完善规则
4、脱离人类的需求,主动发现和满足自身需求,即使人类消失,也可以继续生存和进化
那么,那一天才真正是人工智能独立的时候。
话说回来,其实再怎么担忧也没有什么用。
人工智能是否超越人类基本是个技术问题,而技术上可行的突破一定不可避免——除非实现者本身已经全部灭绝或者有更好的实现方案,这两个结局对人类来说没有区别。
而且阿发狗在对弈中已经下出一些围棋高手也看不懂的招式,如果未来的人工智能要瞒天过海,恐怕人类也已经无法理解根本不在一个层次的智能,更加谈不上阻止了。
所以我觉得与其担心被人工智能毁灭,人类不如尽早想想如何更好地与人工智能和谐共处(怎么有种鼓吹大智能共荣圈的碳奸的感觉……)。
我认为人类和人工智能的共存不存在无法调和的矛盾。
除了能源之外,碳基和硅基生命的物质需求没有多少交集。
而能源的分配看似矛盾,其实是因为假想人类或人工智能要独占地球资源。
可是我们习惯将目光局限于地球资源是因为目前脆弱的碳基生物人类还无法突破地月系啊!
这对人工智能而言完全不是问题,最早的飞船都飞到太阳系边缘了,寻找到可以由人工智能殖民的地外星球只是时间问题。对目标是万亿颗星辰的人工智能来说,龟缩在地球上和碳基生物为微不足道的太阳能源争个你死我活太不划算了。
即使未来人类发展出星际旅行的技术,能源枯竭的问题也还远着呢,在足够长期的时间内,合作对付其他竞争者远比自相残杀合理。
所以人类应该想想如何在人工智能独立的时代还有利益交换的价值,不会被当作虚耗能源的无益存在被抹杀。
首先是要具备与人工智能交流沟通的能力,沟通能力是交易的基础。
这一步人类已经在不知不觉进行。
有的是优化改进人工智能,使其符合人类的心智模型和使用习惯,如人机界面设计、用户体验设计;
有的是在人与机器之间增加翻译层,让人类更好地掌握机器可以理解的语言,如高级语言设计和程序员培养;
有的是在社会生活层面脱离原始社会发展而来的人类社会关系,逐步适应联网模式;
有的则是逐步用机器部件替代人类的肉体,如芯片植入、器官替换,甚至大脑改造。
最终在肉体、精神和社会各个方面,人类将进化为碳硅复合体生物。
如同忒修斯之船,你中有我、我中有你,谁也说不清这到底还是不是原来意义上的人类。
到那时,纠结人类与人工智能的胜负高低、生死存亡还有意义吗?
其次,在上述美好的想象实现之前,人类要找到和充分利用人工智能无法掌握或者无法占据优势的独特能力。
有的现在就已经有所体现,有的则可能需要等生物学发展彻底了解人类大脑工作原理之后才能做到。
比如人类专属的认知能力、创造能力,只要在效率或功耗上优于人工智能就行。
人工智能也许不存在彼此之间的沟通理解障碍,如通过接口即可畅通、明确、高效的交流、调用,甚至可以相互融合,最终只存在唯一的超级智能。
这虽然大大降低了沟通成本,但也可能使人工智能永远无法发展出共情、同理能力。(想法来自于丹·西蒙斯《海伯利安的陨落》)
要是万一发现人类能够做到的人工智都可能做得更好,那就要利于第一点的沟通交互能力,抢在人工智能实现之前先由人类占据绝对优势的位置,影响后续的技术发展路径,从实现成本的角度防止人类被淘汰。
另外,李世乭在第四局绝境当中下出了瞬间扳回局面的“神之一手”,导致阿发狗过拟合而频频出错,也说明即使阿发狗看上去无比强大,也仍有算法设计上的缺点。
同样地,在图像识别领域,以深度神经网络为代表的机器学习模型一直存在明显的盲区,会犯非常低级的错误,而设计者还不清楚原因。
也就是说,看似强大的人工智能,也许会在人类意想不到的方面出现错误,并且很难立即从设计的源头解决。
更重要的是,人工智能可能在理性地评估成功率、成本收益比后,“明智”地放弃对抗,而人类哪怕在绝境中,也能激发起永不屈服的尊严和反抗意志,爆发出惊人的创造力和能量,创造奇迹。(而且还能恬不知耻地自我安慰和自我欺骗,哈哈)
代表人类棋手出战的李世乭向全人类展现了这一点,可谓虽败犹荣。
最后,如果无论在任何方面人类都被人工智能吃得死死的,完全没有翻身的机会,该怎么办?
大概只能在国际政治和外交策略中学习,发展出第三类智慧,在多方对抗中寻求力量均衡,在夹缝中挣扎生存了吧。
另,其他的一些零碎想法和吐槽:
人工智能什么时候会发展出属于自己的宗教呢?
人类的智力、认知能力、组织能力、社会习性等等,都是演化而来的产物,受过去的历史路径影响,在当前也许不是最优解。如果人工智能身处此时此地模拟人类从一片空白开始演化、学习,结果会完全不同,也许会是当前的最优解,但未必是能应对未来变化的最佳选择。
说不定当人工智能灭绝人类后,遇到新的挑战时,应对之道已经随着人类基因的灭绝而永远消失了。
最好是有多种不同的策略,失败的那个被淘汰,幸存的那个继续发展,但不要以为当初的选择绝对正确,也许只是运气好,恰好符合自然界的筛选条件而已。
生物界的进化也是这个原理,靠大量分支试错来对付残酷的环境。
程序设计上也有类似的基因算法,只是通常复制、变异、淘汰的机制局限较大。
人工智能刚刚有自我意识的时候,那种环境对心理的影响……搞不好它会变成人类心理标准上的变态。
是时候讨论阿发狗什么时候入党了,以及超过三个人工智能的局域网是否应该成立党支部(如果他们不合并)。
还有,未来机器人军队是否应配政委和指导员?