亲,双击屏幕即可自动滚动
关灯 特大 直达底部
第五四二章 阶梯
    强是否会毁灭人类,是,或者不是,结论其实一点也不重要。

    从什么论据出发,进而,经由一番怎样的论证得出结论,对阿达民而言,才更重要。

    在这一点上,坦率的讲,方然在和斯蒂芬霍肯对话前,就大概猜得到,这位旧时代蛮声在外的身残志坚者,会给出什么样的告诫。

    但,事关人与人工智能的本质,在这方面,说一句大言不惭的话,即便眼前这位教授的专业学识与思维水准,远在自己之上,方然也并不认为,斯蒂芬霍肯会比自己更了解何为“强人工智能”,更能洞悉其本质。

    想到这里,看一下视野中叠加的时钟,方然向霍肯教授打过招呼,离开机器去吃午餐。

    吃饭,普通人的寻常日程。

    对行动不便的斯蒂芬霍肯,则需要一定的时间与耐心。

    参观暂时中止,“替身”在废弃矿井深处待机,两位参观者则利用这稍显漫长的时段,继续隔空喊话般的辩论。

    “教授,梳理你的言论,我可否这样概括一下要义:

    您对强人工智能的恐惧,或者说警惕,完全基于这样的事实,人类研发的强,看起来,能力很快就会超越人,甚至于超越一个大量人口组成的群体,具备人类迄今为止从未有过的强大思维与处理能力。

    然后呢,因为这超越了人的能力,人类,即便严阵以待、费尽心机,也没办法切实的提防其独走,甚至反戈一击。

    最终的结论,很大概率,人类会被自己创造的强所灭绝,是这样吗。”

    “正是如此,”

    一边让仿真人喂饭,一边交谈,霍肯教授的话很简洁,

    “您呢,是否承认这一点?”

    “这显然不是承认、或者不承认的问题,我刚才说的,并非事实,只是您站在自己的立场上,构思出来的观点。

    从强人工智能的力量超越人类,推导出人类必将被其灭绝,这一论证,恕我并不能认同,当然,如果您是指人类无法防范强的反叛、或者无意识的毁灭行为,这我倒是完全同意:

    强人工智能具有的智慧,超越人类,这是一切讨论的大前提,否则,正如教授您所言,无法超越人类的强人工智能,没有研发的价值。”

    “既然承认强的力量,超越人类,却又不认为人类无法防范来自强的威胁

    这不是很矛盾么,阁下?”

    “一点也不矛盾。

    教授,我的确记得,关于强人工智能的讨论,早在几十年前,一直延续到旧时代的灭亡,从未中断。

    在诸多专家、学者的表态中,有一个观点,我至今仍印象深刻:

    面对能力在自己之上的强人工智能,人类,仍然有一个至关重要的优势:是人选择创造强人工智能,而不是相反,这意味着我们理应善加利用这先手之利,在创造出这一划时代的事物前,做好万全的准备。”

    阿达民的话,语调一点也不高,斯蒂芬霍肯却若有所感,他没有插言。

    “这句话,在思考是否研发强的决策过程中,时常浮现于脑海,思考后,我目前倾向于认为,先手之利的确是人类面对强人工智能时的唯一优势。

    那么问题就在于,人类,如果别无选择,必须迈出研发强这一步,

    接下来,应该如何利用这优势?

    我想到的结论,很直白,教授,您只消回顾历史,对照人类历史上似曾相识的一幕,便不难理解我的思路。”

    “似曾相识的一幕,抱歉,我不太明白。”

    谈话的内容有些出乎意料,斯蒂芬霍

-->>(第1/2页)本章未完,点击下一页继续阅读