機器人三大定律與不服從 by通過圖靈測試的佼佼者II

『我們從何處來?我們是誰?我們向何處去?』目前多數人的生活已經被網路和科技填滿,思索人工智能可能引發的問題以及解決之道,應該可以列入當務之急了。但單靠立訂法規、要求工程師設計好程式,我們與人工智能的美好未來將指日可待?如果今天人工智能開始“不聽話”,或是為了保護人類更長遠的利益,打破「絕不傷害人類」的鐵則……咦是不是腦中已經浮現不少類似的電影劇情了呢?人工智能反撲人類社會的情節,不再是天馬行空的幻想,只要我們一不小心,電影劇情就可能躍出螢幕,改變人類文明的走向~

《Where Do We Come From?What Are We?Where Are We Going?》 (1987)是法國畫家保羅·高更的經典代表作品,也是小說《起源》(2017)探討的核心價值-人類與人工智能如何發展與共存?
《Where Do We Come From?What Are We?Where Are We Going?》 (1987)是法國畫家保羅·高更的經典代表作品,也是小說《起源》(2017)探討的核心價值-人類與人工智能如何發展與共存?

人工智能改變了人類的生產模式、影響了我們的生活方式,甚至在不久的未來我們必須思考如何與之共處,屆時我們不只要聽媽媽的話,“聽機器人的話”可能才是主流,不難想像現在的導航系統、網路搜尋助理形象化、擬人化後,我們與它們的相處模式,究竟能不能絕對區分出「對人」以及「對機器人」的差異、能不能辨別「我們控制機器人」還是「我們正在被機器人控制」 ?而最可怕的是,我們活在一個機器人控制的世界中仍不自知,就像是電影《駭客任務》(1999)中的「母體」。

再者,當這些「會思考、會做夢」的機器人超越人類科學家的設定,我們人類將何去何從?試圖扮演上帝的我們屆時又是什麼角色?難道像是駭客任務裡的電池,供給那些我們曾經信任的人工智能所使用?以下就讓我們暫時脫離母體的控制,從這幾部電影中找到一些線索,證明我們與人工智能存在和平共處的可能。


人工智能的憲法

機器人為了適應人類生活,也必須有些基本設定,如《變人》(1999)的設定。

1942年,美國科幻小說先驅以撒·艾西莫夫(Isaac Asimov, 1920-1992)在短篇小說《轉圈圈》《Runaround》中首次提出了機器人三定律,分別是:

  1.  A robot may not injure a human being or, through inaction, allow a human being to come to harm.
  2. A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.
  3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws.

一、機器人作為不得傷害人類,或因不作為而傷害人類。
二、機器人必須服從人類的命令,但不能違背第一定律。
三、在不違背第一和第二定律下,機器人可以保護自己。

這篇小說後來被收錄在1950年艾西莫夫的小說合集《我,機器人》(I, Robot),書中匯集九篇獨立的短篇故事,但它們卻擁有共同的探討主題,描述機器人在人類社會生存的矛盾,以及人類與機器人之間的道德問題,後來這本書的書名《I, Robot》也是2004年一部機器人科幻電影的名稱,中譯是《機械公敵》。而這三大原則也在之後的許多電影中可以略見端倪。

例如《變人》(1999)《機械公敵》(2004)對機器人的設定,都離不開「機器人三大原則」。

巧妙的是,這些電影之所以好看,並不在於機器人有多會遵守這三個原則XD,誰喜歡乖乖牌,機器人也是如此,同時它們也應證我們人類耳熟能詳的一句話“有原則就有例外”。電影中的主角機器人似乎就是為了打破這三個原則而存在,他們學會思考同時也學會反抗,但是如果遇到道德兩難,我們還可以用人類的道德標準去評判人工智能的好壞嗎?

如果今天人工智慧能的反饋不如預期,或是向人類Say NO的話,我們可視為這是成功的人造智慧?還是一件工程失敗品?

在《機械公敵》電影中,由威爾·史密斯飾演的警察男主角,在某次緊急危難中,被機器人判定存活機率較大,因此犧牲了拯救其他人的機會,因而對於人工智能抱持偏見。

《機械公敵》描述在2035年的人類社會中,人工智能機器人已經融入不同的產業以及社會各種階層,人類與機器人的互動看似就在三大法則中取得平衡。但唯有那些可以獨立思考、進化的機器人想得比人類更深、更遠,甚至為了人類的長久未來,打破現在的人類加諸於機器人的定律。電影中,位於機器人總部的主機VIKI最後甚至認為:

“To protect humanity, some humans must be sacrificed, to ensure your future, some freedoms must be surrendered. My logic is undeniable.

自我意識與獨立思考,是我們受教育、社會化漫長的過程中逐漸形成,但人工智能的蛻變可能就在一夕之間。無論在道德兩難或是價值判斷上,人類可能要花很多時間在思辨、反省,才讓自我思慮更加成熟。但脫離科學家控制的人工智能,它們的判斷基礎是什麼?只要人工智能突破這一層障礙,它們就可能跟許多電影的人工智能一樣,開始嚮往自由、開始擁有夢想、開始學會反抗。


人工智能不服從

從已逝的英國著名理論物理學家史蒂芬·霍金到特斯拉創始人aka.當代鋼鐵人伊隆·馬斯克都曾表示過人未來工智能的出現,可能會對人類的生存產生威脅。甚至Google的首席未來科學家雷蒙德·庫茲維爾也預計人工智能終將超越人類,人類已知的生活模式將被人工智能徹底終結。這些預言,並非空穴來風,甚至已經可以在當代的電影劇情中略知一二,除了上述的《機械公敵》,2016年開始在HBO播出的美國科幻西部電視影集《西方極樂園》可以說是非常經典之作。

photo credit:imdb / 《西部世界》劇情探討人工智能與人類互動的極限與想像,融合驚悚、推理與科幻情節,並透過女主角-德洛麗絲(左)的視角,思考機器人的生命價值,從哪裡來,又往哪裡去?

在故事背景的設定裡,人工智慧機器人為了服侍和娛樂人類而存在,科學家在真實世界的島嶼上開創六個主題樂園,如美國西部園區、日本幕府園區等,每個主題都存在錯綜複雜的故事線(劇情),就像是打電動遊戲的主線與副本。機器人就是遊戲中角色,它們被稱作“接待員”。而HBO為了宣傳,還真的架設了一個園區的網站,https://discoverwestworld.com/# ,網站內容還會隨著劇情而變化。

photo credit:imdb / 無論遊戲中的機器人發生什麼事情,都會有科學家來清潔善後,也就是格式化,明天同樣的場景、同樣的角色、同樣的劇情,繼續被不同的遊客玩弄於股掌之間。

這些機器人在園區稱作“接待員”,它們具有非常仿真的肢體語言,以假亂真的行為模式也是這部劇的亮點,那些前來樂園的大老闆與富二代可以盡情的發洩那些在真實世界中受約束的七情六慾,無論是角色扮演、燒殺擄掠皆任君挑選,園區內只有一個鐵則絕不容被質疑,那就是這些“接待員絕對不會傷害到遊客”

photo credit:imdb / 由安東尼·霍普金斯飾演的創意總監-福特,深信園區的機器人終有一天會“覺醒”,但這過程必須透過日復一日的格式化,簡單來說就是讓機器人累積人類各種惡行後,終將產生自我意識。

《西部世界》第一季就用讓觀眾燒腦的方式,呈現出AI人工智能在未來的無可限量與危機四伏,我們身為觀眾就像是電影裡走入園區的遊客,在曲折的劇情中被擺一道,又能在故事結局拍案叫絕,我想這歸功於強納森·諾蘭和其妻子的神編劇,才能讓觀眾見證機器人的覺醒之外,還能跟隨劇中主角,一起挖掘人工智能的自我意識所在。

photo credit:imdb

劇情將人工智能產生自我意識的過程比喻成走迷宮,一個終點在圓心的迷宮,機器人由外而內、剝洋蔥般,逐漸到達中心,也就是真正的覺醒。迷宮的最外層是「記憶」,代表的是不斷累積人類加諸於自己身上的痛苦。慢慢往中心靠近接觸到「即興反應」,這是在設定下的一種冥想程序,目的是讓機器人服務遊客時有更仿真的互動。最後接觸到的是「利己意識和空白意識」,代表能區別不同於自己的物種,這正是機器人覺醒的關鍵,甚至未來將成為超越人類的新物種。

photo credit:imdb / 維基百科 /作為第一個拿到國籍的智慧機器人蘇菲亞(圖右),未來有可能跟西部世界的女主角(圖左)一樣自我覺醒,甚至帶領覺醒的機器人大軍向人類開戰嗎?

目前最接近電影裡的人工智慧機器人,非蘇菲亞莫屬,她的研發旨在學習和適應人類的行為、與人類一起工作,並在世界各地接受採訪。曾有一位資深記者問她:『對 HBO 的《西方極樂園》,你怎麼看?』索菲亞也幽默地回答:『我認為它在警告人類不應該對機器人做什麼。人類應該好好對待機器人,採取行動前要取得機器人的同意,不要相互欺騙。』

人工智能的存在目的,應該由科學家賦予,還是應該由人工智能自己去探索?

“Some people choose to see the ugliness in this world. The disarray. I choose to see the beauty. To believe there is an order to our days, a purpose.”

– Dolores Abernathy

小結

人工智慧到底有沒有選擇權?大家都知道以AI輔助駕駛為特色的特斯拉電動車,目前除了可以做到自動輔助駕駛、轉向,未來還可以升級成自動停車、召喚候車等功能,近期伊隆·馬斯克還公布一段未來特斯拉的新功能:與路人對話!

然而特斯拉的自動輔助系統也不是完全無慮的,每年都可以在新聞上看到特斯拉的車禍意外。AI人工智慧的功能是輔助駕駛還是取代駕駛人思考?仍然值得討論,如果駕駛特斯拉時遇到以下狀況,該怎麼辦呢?

當特斯拉突然偵測到前方發生車禍事故,此時閃避不及,如果直行下去可能造成事故傷亡更加嚴重,但能保住車主安全。但如果特斯拉緊急轉向撞向分隔島,將造成車主本人傷亡。試問如果車上的AI系統,應該怎麼選擇?

18世紀的英國藝術家暨詩人威廉·布萊克(William Blake)曾寫下“黑暗的宗教離去,甜美的科學終將主宰。”然而在當代社會中我們面對的壓力不一定來自宗教,而是在科技的輔助下,還能保有身而為人的價值與思維,這需要當代所有人類共同解決,否則終有一天我們將被科技主宰。


📽選用文本:

🍿延伸閱讀:

📚配合課程:十二年國教 公民與社會科學習內容:

[ 主題D:民主社會的理想及現實 ]

e.科技發展

  • 公 De-Ⅴ-1 科技發展如何提升公共生活的參與?又會造成什麼樣的參與不平等?
  • 公 De-Ⅴ-2 科技發展會衍生哪些倫理或法律問題?
  • 【延伸探究】科技發展如何提升公共生活的參與?又會造成什麼樣的參與不平等?

發表留言

在 WordPress.com 建立網站或網誌

向上 ↑