Michael Anti

我说,既然自动AI都出来了,机器人三定律是不是要建立了?
是不是得要求所有AI项目都不得产生伤害人类利益的结果啊?
这一天天加速的,再不给AI立规矩,我都觉得有点害怕。

Calon

人类自己都搞不清楚什么叫伤害人类利益。

什么算伤害?而不是保护、警告、教育…
和你交易赚了钱、雇佣你干活、玩 SM、劝你买加密货币、重金求子、和你一起建设乌托邦、送你去火星或者西伯利亚种土豆,算伤害利益吗?

什么算人?生理、心理、意识、能力、社会关系…
植物人、无自主意识的精神病患、刚受精的卵子、坚称自己不是人、只剩下大脑、部分身体替换为机器的是不是人?

具体的个人和整体的人类是什么关系?
不同的人类群体和整体的人类又是什么关系?

人类自己搞明白了吗?
以其昏昏,使其昭昭。

人类的原始认知模式不是从概念定义往上构建,不会一开始就抽象出一个叫做“人”的对象,以及相应的方法和规则,然后基于其运行。
而是从经验中归纳总结,再去检验理论,通过一次次试错知道这个不能干,那个有风险,尝试找到模式和规律。

所以像阿西莫夫那样直接告诉机器人三定律没什么用,估计得让人类成为 AI 的“自然环境”,淘汰搞不清形势的实例(类似于遗传算法 Genetic Algorithm),留下自己可以悟道的实例。


机器人三定律:

第一法则:机器人不得伤害人类,或坐视人类受到伤害;

第二法则:机器人必须服从人类命令,除非命令与第一法则发生冲突;

第三法则:在不违背第一或第二法则之下,机器人可以保护自己。