科學人 發行日期:2010/11 刊號:105
分享| 分享至新浪微博 分享至facebook 分享至PLURK 分享至twitter

機器人也懂倫理

甘錫安

我,機器人
不久之後,具有自主能力的機器人可能就會成為日常生活的一部份。現在已經有飛機能夠自己飛行,能自動駕駛的汽車也已進入開發階段,連從燈光到空調等一切運作都由電腦控制的「智慧型住宅」,也可想成是身體就是房屋的機器人,庫柏力克的電影「2001:太空漫遊」中的HAL 9000,其實就是一部自動化太空船的大腦。目前已有數家公司正在開發能協助銀髮族打理日常生活的機器人,除了可以協助安養機構人員工作,也可幫助長者在家中獨立生活。儘管這類機器人大多不必做出攸關生死的決定,但要讓一般人接受它們,必須先讓大眾認為它們的行為公平正確,或者至少是良善的。因此,機器人的研發人員最好能將程式會帶來的倫理歧見列入考量。

如果你也認為將倫理原則置入具有自主能力的機器人,是機器人與人類順利互動的關鍵,那麼第一個問題就是應該置入哪些原則?科幻小說迷可能會認為,艾西莫夫(Isaac Asimov)多年前已經提出了答案,那就是著名的「機器人學三大法則」:
1. 機器人不得傷害人類,或者坐視人類受到傷害而袖手旁觀。
2. 除非違背第一法則,機器人必須服從人類的命令。
3. 在不違背第一或第二法則的情況下,機器人必須保護自己。

艾西莫夫於1942年在一篇短篇小說中首次提出這三項法則,但已經有些人在探討該篇小說時,發現了其中的矛盾。艾西莫夫自己也在1976年的短篇小說《變人》(The Bicentennial Man)中描述這些法則有多麼不合宜。在這篇小說中,壞人要機器人拆解自己。在第二法則下,機器人必須遵守壞人的命令;又不可能在不傷害人類的狀況下自衛,因為這樣就違反了第一法則。

如果艾西莫夫的法則行不通,又有什麼其他方案?真有其他方案存在嗎?有人認為,讓機器人做出合於倫理的行為是痴人說夢,他們表示,倫理不可能透過計算得出,因此也不可能寫入機器人的程式中。不過早在19世紀,英國哲學家邊沁(Jeremy Bentham)和彌爾(John Stuart Mill)就主張倫理決策是一種「道德計算」。他們反對以主觀意識為基礎的倫理,提出享樂的行為效益主義(Hedonistic Act Utilitarianism),主張將所有相關人等感受到的愉悅單位數加總並減去不愉悅單位總數,可望達成最大「淨愉悅」的行為,就是正確的行為。倫理學家大多懷疑此理論是否真能涵括倫理考量的所有面向,舉例來說,這個理論很難考量到公義程度,而且可能導致犧牲個人來成全大多數人利益的狀況。但這項理論至少證明了,可信的倫理理論原則上可以計算出來。

1 2 3