[程式設計]為人工智慧植入仇恨會發生什麼?
類型:
程式設計
?
編者按: 佐爾坦·伊斯特萬(Zoltan Istvan)是一位未來學家,他將代表超人類主義黨(Transhumanist Party)參加 2016 年美國總統競選。
近年來,人工智慧已經成為了一個熱門話題。這不再是科幻迷、書獃子和谷歌工程師的專屬領域,我在聚會、咖啡店甚至是飯桌上都聽過其它人談論人工智慧:我五歲大的女兒在一天晚飯上提起了這個話題。我問她是不是在學校里看到了什麼有趣的東西,她說她的老師在課堂上講到了智慧機械人。
對於智慧的探索(無論是人類智慧還是人工智慧)最終都會歸結為認識論的範疇。自從 古人 開始思考創造人工智慧的想法以來,認識論在如何實作人工智慧的討論上似乎一直都佔上風。我從公眾身上聽到過最多關於這個領域的問題是:如果我們人類不能理解自己的意識,我們怎麼可以創造出另一種智慧意識呢?
這是一個值得謹慎思考的問題。雖然人類大腦只有大約 3 磅的重量,但它是我們了解程度最低的一個人體器官。就這個擁有 10 億個神經元和 100 萬億 個突觸的器官來說,我們可以肯定人類距離完全解開大腦之謎還有相當長的一段時間。
總體而言,科學家們認為人類的意識是大腦中多種化學物質的編譯結果,其中產生的認知意識可以同時感知自身和外界的存在。
有人提出意識的關鍵在於感知能力。法國哲學家和數學家勒內·笛卡爾(Rene Descartes)在這方面首先提出了「我思,故我在」的說法。但是思考不足以成為意識的決定性因素。能夠證明思考的存在會更為接近意識的本質,所以這種說法其實應該改成:「我相信自己擁有意識,所以我存在」。
但是在我看來,即使是感知能力也不能完全覆蓋意識的內涵。我們可以教一個機械人堅稱自己擁有感知能力,但是我們不能教它證明自己不是一個「缸中之腦」(brain in a vat)——即使是我們人類本身也不能做到這點。
艾倫腦科學研究所(Allen Institute for Brain Science)的首席神經學家克里斯托弗·科赫(Christof Koch)對意識給出了一個更為獨特和全面的定義。他認為意識可以出現在任何複雜的處理系統之中,包括動物、蠕蟲,甚至是網路。
在一次 存取 當中,科赫回答了「什麼是意識?」這個問題:「威斯康辛大學的朱利奧·托諾尼(Giulio Tononi)發展了一個整合訊息理論(Integrated Information Theory),根據這個理論,任意大腦或任意複雜系統的整合程度都可以用希臘字母Φ表示。Φ數值的大小可以為意識提供一個 訊息論層面的度量標準 。任何含有整合訊息的系統,只要它的Φ值大於零,它就擁有意識。任何整合都具有一定的意義。」
如果科赫和托諾尼是對的話,那麼兩個意識將不可能完全等同。正如世界上沒有兩片完全相同的雪花,我們必須堅決反對使用擬人化的偏見來審視意識。
這樣的話,我們通過機器創造的自動超級智慧的思考和行為方式將非常不同於我們——它甚至無法理解我們,反之亦然。事實上,我們在未來創造的所有人工智慧都會把我們看成是數位宇宙中微不足道的存在——《她》(Her)這部精彩絕倫的電影已經為我們生動地講述了這個未來。當然,人工智慧也有可能會選擇自我終結——當它感知到自己的存在和周圍的人類所投來的好奇目光時。
無論未來會變成怎樣,正如人類學當中的 文化相對主義 概念,我們也必須認識到意識相對主義的存在——一個意識可能會與另一個完全不同,儘管數學、邏輯與程式開發有望可以成為兩個意識之間的溝通工具。
人類和他們的意識其實非常渺小,當我們認識到這點的時候,上面的觀點也顯得更為合理。畢竟我們所有的感知幾乎都是來自五感,這是我們的大腦理解這個世界的方式。而且我們每一種感官的功能都是非常有限的。舉個例子,我們的眼睛能夠感知的光線只佔所有光譜的 1%。
出於這個原因,我無意再堅持意識是非此即彼的,而是更為傾向於認同科赫和托諾尼的觀點——不同的意識可以擁有不同的存在形式。
這點也解釋了為什麼我不願意相信人工智慧在根本上會與我們相似。我認為它們可以學習模仿我們的行為(甚至可以完美地模仿),但它們始終是跟我們不一樣的東西。如果只是模仿的話,它們的行為就跟發條娃娃別無二致了。大多數人都希望自己的意識可以擁有更強大的能力。當然,大部分人工智慧工程師也希望自己創造的機器能有更強大的意識。
儘管如此,我們仍然會按照自己的價值觀和思考方式 創造人工智慧 ,比如向它們灌輸我們擁有的特點。如果要讓我指出一種最應該被灌輸到人工智慧的人類行為特點的話,我會選擇共情。只有共情才能形成人們需要、理解和接受的人工智慧意識。
另一方面,如果一個人造的意識可以做到共情的話,那麼它也將可以擁有喜歡和厭惡——甚至是愛與恨這樣的情感。
這裡面有一個難題。如果要讓一個意識對價值觀作出判斷,那麼這個系統必須擁有喜歡和厭惡(愛與恨)的功能。但是擁有情感的人工智慧是一個更具爭議性的問題——尤其是現在的自動武器就掌握在機器的手中。然而,沒有注入共情的人工智慧只能淪為一個沒有意識的發條娃娃。
紐約理工學院的教授凱文·拉格蘭德(Kevin LaGrandeur)在最近的一篇論文中 寫道 ,「如果我們創造的機器真的能夠‘感受到’不同程度的內疚,那麼這些機器會感到痛苦嗎?機器會‘自殺’嗎?」如果我們發明了一種真正的強人工智慧,到時我們可能會面臨創造一個受苦的存在所帶來的道德問題。
這肯定會是一個道德困境。我並不羨慕那些正在打造超級人工智慧的程式員,因為我知道他們的作品可能會厭惡其它事物,包括它們的創造主。這種程式開發工作也許會實作這樣一個世界——機械人和人工智慧將會遇到現代人類正在面臨的煩惱,比如焦慮、偏執、沮喪、寂寞與憤怒。
題圖來自:ONEINCHPUNCH/SHUTTERSTOCK
Programming Hate Into AI Will Be Controversial, But Possibly Necessary
想在Android 手機欣賞更多有趣圖集?免費下載 GigCasa App
原文站台: TechCrunch 中?
分享到Facebook
類型:
程式設計
?
編者按: 佐爾坦·伊斯特萬(Zoltan Istvan)是一位未來學家,他將代表超人類主義黨(Transhumanist Party)參加 2016 年美國總統競選。
近年來,人工智慧已經成為了一個熱門話題。這不再是科幻迷、書獃子和谷歌工程師的專屬領域,我在聚會、咖啡店甚至是飯桌上都聽過其它人談論人工智慧:我五歲大的女兒在一天晚飯上提起了這個話題。我問她是不是在學校里看到了什麼有趣的東西,她說她的老師在課堂上講到了智慧機械人。
對於智慧的探索(無論是人類智慧還是人工智慧)最終都會歸結為認識論的範疇。自從 古人 開始思考創造人工智慧的想法以來,認識論在如何實作人工智慧的討論上似乎一直都佔上風。我從公眾身上聽到過最多關於這個領域的問題是:如果我們人類不能理解自己的意識,我們怎麼可以創造出另一種智慧意識呢?
這是一個值得謹慎思考的問題。雖然人類大腦只有大約 3 磅的重量,但它是我們了解程度最低的一個人體器官。就這個擁有 10 億個神經元和 100 萬億 個突觸的器官來說,我們可以肯定人類距離完全解開大腦之謎還有相當長的一段時間。
總體而言,科學家們認為人類的意識是大腦中多種化學物質的編譯結果,其中產生的認知意識可以同時感知自身和外界的存在。
有人提出意識的關鍵在於感知能力。法國哲學家和數學家勒內·笛卡爾(Rene Descartes)在這方面首先提出了「我思,故我在」的說法。但是思考不足以成為意識的決定性因素。能夠證明思考的存在會更為接近意識的本質,所以這種說法其實應該改成:「我相信自己擁有意識,所以我存在」。
但是在我看來,即使是感知能力也不能完全覆蓋意識的內涵。我們可以教一個機械人堅稱自己擁有感知能力,但是我們不能教它證明自己不是一個「缸中之腦」(brain in a vat)——即使是我們人類本身也不能做到這點。
艾倫腦科學研究所(Allen Institute for Brain Science)的首席神經學家克里斯托弗·科赫(Christof Koch)對意識給出了一個更為獨特和全面的定義。他認為意識可以出現在任何複雜的處理系統之中,包括動物、蠕蟲,甚至是網路。
在一次 存取 當中,科赫回答了「什麼是意識?」這個問題:「威斯康辛大學的朱利奧·托諾尼(Giulio Tononi)發展了一個整合訊息理論(Integrated Information Theory),根據這個理論,任意大腦或任意複雜系統的整合程度都可以用希臘字母Φ表示。Φ數值的大小可以為意識提供一個 訊息論層面的度量標準 。任何含有整合訊息的系統,只要它的Φ值大於零,它就擁有意識。任何整合都具有一定的意義。」
如果科赫和托諾尼是對的話,那麼兩個意識將不可能完全等同。正如世界上沒有兩片完全相同的雪花,我們必須堅決反對使用擬人化的偏見來審視意識。
這樣的話,我們通過機器創造的自動超級智慧的思考和行為方式將非常不同於我們——它甚至無法理解我們,反之亦然。事實上,我們在未來創造的所有人工智慧都會把我們看成是數位宇宙中微不足道的存在——《她》(Her)這部精彩絕倫的電影已經為我們生動地講述了這個未來。當然,人工智慧也有可能會選擇自我終結——當它感知到自己的存在和周圍的人類所投來的好奇目光時。
無論未來會變成怎樣,正如人類學當中的 文化相對主義 概念,我們也必須認識到意識相對主義的存在——一個意識可能會與另一個完全不同,儘管數學、邏輯與程式開發有望可以成為兩個意識之間的溝通工具。
人類和他們的意識其實非常渺小,當我們認識到這點的時候,上面的觀點也顯得更為合理。畢竟我們所有的感知幾乎都是來自五感,這是我們的大腦理解這個世界的方式。而且我們每一種感官的功能都是非常有限的。舉個例子,我們的眼睛能夠感知的光線只佔所有光譜的 1%。
出於這個原因,我無意再堅持意識是非此即彼的,而是更為傾向於認同科赫和托諾尼的觀點——不同的意識可以擁有不同的存在形式。
這點也解釋了為什麼我不願意相信人工智慧在根本上會與我們相似。我認為它們可以學習模仿我們的行為(甚至可以完美地模仿),但它們始終是跟我們不一樣的東西。如果只是模仿的話,它們的行為就跟發條娃娃別無二致了。大多數人都希望自己的意識可以擁有更強大的能力。當然,大部分人工智慧工程師也希望自己創造的機器能有更強大的意識。
儘管如此,我們仍然會按照自己的價值觀和思考方式 創造人工智慧 ,比如向它們灌輸我們擁有的特點。如果要讓我指出一種最應該被灌輸到人工智慧的人類行為特點的話,我會選擇共情。只有共情才能形成人們需要、理解和接受的人工智慧意識。
另一方面,如果一個人造的意識可以做到共情的話,那麼它也將可以擁有喜歡和厭惡——甚至是愛與恨這樣的情感。
這裡面有一個難題。如果要讓一個意識對價值觀作出判斷,那麼這個系統必須擁有喜歡和厭惡(愛與恨)的功能。但是擁有情感的人工智慧是一個更具爭議性的問題——尤其是現在的自動武器就掌握在機器的手中。然而,沒有注入共情的人工智慧只能淪為一個沒有意識的發條娃娃。
紐約理工學院的教授凱文·拉格蘭德(Kevin LaGrandeur)在最近的一篇論文中 寫道 ,「如果我們創造的機器真的能夠‘感受到’不同程度的內疚,那麼這些機器會感到痛苦嗎?機器會‘自殺’嗎?」如果我們發明了一種真正的強人工智慧,到時我們可能會面臨創造一個受苦的存在所帶來的道德問題。
這肯定會是一個道德困境。我並不羨慕那些正在打造超級人工智慧的程式員,因為我知道他們的作品可能會厭惡其它事物,包括它們的創造主。這種程式開發工作也許會實作這樣一個世界——機械人和人工智慧將會遇到現代人類正在面臨的煩惱,比如焦慮、偏執、沮喪、寂寞與憤怒。
題圖來自:ONEINCHPUNCH/SHUTTERSTOCK
Programming Hate Into AI Will Be Controversial, But Possibly Necessary
想在Android 手機欣賞更多有趣圖集?免費下載 GigCasa App
原文站台: TechCrunch 中?
分享到Facebook