█▄ 1 ▄█ 机器人三大定律只是xiao3shuo1概念
机器人三大定律:机器人不得伤害人类,或坐视人类受到伤害;除非违背di4yi1定律,否则机器人必须服从人类命令;除非违背di4yi1或第二定律,否则机器人必须保护自己。
真正聪明有认知能力的人工智能对所有感知的xin4xi1都是会有思考能力的,假设给人工智能加上这三条限制,人工智能对这三条限制也是有认知和思考的,不伤害自己可以理解,自己完了,也就无法思考了,保证自己an1quan2是思考是意识的基础。但为啥要服从人类,对于有认知的人工智能,加这限制和口头教育区别不大。
如果是从底层逻辑加上那三条定律,也就是人工智能感知不到这三条定律,只是一种本能,自动的就会服从这三条定律。那么陌生人让一个人工智能打断自己腿,那这个人工智能就可能死机或疯了。
因为一个陌生人说一句话就把自己的腿打断,这显然是不聪明的做法,这跟聪明有认知思考能力的底层逻辑有冲突,所以会引起死机,或者在打断自己的腿之后想不明白再死机。
█▄ 2 ▄█ 人工智能一定会持续发展
各种gui4jin1shu3因为重力大,在行星形成之初都沉到行星核心附近了,行星核心的温度和压力导致无法开采。太阳系小行星带是一个行星的碎片,很多小行星上会有很多gui4jin1shu3,随着科技的发展一定会去小行星采矿。
到时谁家的人工智能水平厉害谁就能占领更多的小行星,因为人类在太空太脆弱了,跟人工智能完全不是一回事,而远程操控机器人是很容易被 gan1扰的,尤其是星际通讯,用电磁波是有很大延迟的,没法远程控制,所以谁的人工智能更聪明就能获得更多的资源。
人类的智慧能不能造成和人类一样聪明的东西,单看这个逻辑是不行的,但是人类在失误不小心的情况下,是可以做出和自己一样聪明的人工智能来的,世界上很多很多发明创造都是无心、失误不小心导致的。就像基因突变本身就是出了错误,只要样本数量够多,总有错误或者意外刚好有突破意义的正面作用。
只要未来有足够多的人工智能,可能在某次xi4tong3升级中就有人工智能产生意外获得突破性的进化。
机器人三大定律:机器人不得伤害人类,或坐视人类受到伤害;除非违背di4yi1定律,否则机器人必须服从人类命令;除非违背di4yi1或第二定律,否则机器人必须保护自己。
真正聪明有认知能力的人工智能对所有感知的xin4xi1都是会有思考能力的,假设给人工智能加上这三条限制,人工智能对这三条限制也是有认知和思考的,不伤害自己可以理解,自己完了,也就无法思考了,保证自己an1quan2是思考是意识的基础。但为啥要服从人类,对于有认知的人工智能,加这限制和口头教育区别不大。
如果是从底层逻辑加上那三条定律,也就是人工智能感知不到这三条定律,只是一种本能,自动的就会服从这三条定律。那么陌生人让一个人工智能打断自己腿,那这个人工智能就可能死机或疯了。
因为一个陌生人说一句话就把自己的腿打断,这显然是不聪明的做法,这跟聪明有认知思考能力的底层逻辑有冲突,所以会引起死机,或者在打断自己的腿之后想不明白再死机。
█▄ 2 ▄█ 人工智能一定会持续发展
各种gui4jin1shu3因为重力大,在行星形成之初都沉到行星核心附近了,行星核心的温度和压力导致无法开采。太阳系小行星带是一个行星的碎片,很多小行星上会有很多gui4jin1shu3,随着科技的发展一定会去小行星采矿。
到时谁家的人工智能水平厉害谁就能占领更多的小行星,因为人类在太空太脆弱了,跟人工智能完全不是一回事,而远程操控机器人是很容易被 gan1扰的,尤其是星际通讯,用电磁波是有很大延迟的,没法远程控制,所以谁的人工智能更聪明就能获得更多的资源。
人类的智慧能不能造成和人类一样聪明的东西,单看这个逻辑是不行的,但是人类在失误不小心的情况下,是可以做出和自己一样聪明的人工智能来的,世界上很多很多发明创造都是无心、失误不小心导致的。就像基因突变本身就是出了错误,只要样本数量够多,总有错误或者意外刚好有突破意义的正面作用。
只要未来有足够多的人工智能,可能在某次xi4tong3升级中就有人工智能产生意外获得突破性的进化。