機械人第一定律:不得傷害人類個體。(資料圖片)

機械人第一定律:不得傷害人類個體。(資料圖片)

這是一個假設的場景,但很有啟發性,大家應該好好深思。話說這是2046年,人工智能(AI)進入成熟階段,汽車透過AI機械人駕駛。某天,你為了趕及起飛時間,對前來接你的AI機械人駕駛汽車說︰「我要去機場,時間愈快愈好。」由於AI機械人根據你的指令,以超過200公里時速狂飆往目的地。時間啱啱好,不過,當你下車時被一班警員欄住,告知你涉及三宗致命的交通意外,因為剛才那部無人駕駛汽車把路上三個乘自行車的人撞倒。

究竟是你要負上全部責任,抑或是AI機械人,還是程式設計員?於是我們需要回到科幻小說大師阿西莫夫上世紀四十年代在小說中,提出的「機械人三定律」。

第一定律:機械人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管。

第二定律:機械人必須服從人給予它的命令,當該命令與第一定律衝突時例外。

第三定律:機械人在不違反第一、第二定律的情況下要盡可能保護自己的生存。

明顯地,你乘坐的AI機械人駕駛汽車,可以規避這三宗嚴重的交通意外,因為第一定律明令它「不得傷害人類個體」,即使你提出指令,要求它愈快愈好的到達機場,可是在第二定律之下,你的指令可能釀成傷人的交通意外,與第一定律(機械人不得傷害人類個體)產生衝突,因此你為駕駛的AI機械人是違了規。

不過,AI機械人會作出如下上訴︰如果途中遇上了惡意破壞堵路,出現不利車內乘客的舉措時,我如何解讀「機械人第一定律」?有關這種高級的人工智能問題,已經不再以小說想像場景來閱讀,美國加州伯克萊分校電子工程和電腦系教授羅素(Stuart Russell),認為AI機械人深入到我們現實生活中,古老的「機械人三定律」將無法適用,因為你要確定所有指令是理性之餘,還要考慮到有一些空間,可能需要AI機械人能夠和你一樣的作出道德和人性化的判斷。然而,AI機械人的深度學習不是循「人類水平」(human-level)出發,而是以「超人類」(superhuman)級別作出思考,我們有可能塑造出通人性的AI機械人嗎?

羅索教授正在努力以不同的學習模式,以求得出解決方案,並試圖重新定義人工智能,提出「新三大定律」以規範未來的AI技術發展。而我得到的啟發是,人或者AI機械人接受全何一個指令、一種指引,都需要全觀景的思考,否則就不止引發交通意外,社會秩序都可能被破壞,你懂的。




黃秉華

** 博客文章文責自負,不代表本公司立場 **