作者:趙南元
一、最牛的概念
“自由意志”最早引起我的注意是緣于一件小事。當時在國外工作,遇到有人上門向我傳教。我問他們:世界的萬物都是上帝創造的嗎?他們說:是的。
我說:那么魔鬼也是上帝創造的了?他們說:不是,上帝只創造了天使,但是天使有自由意志,有的自己變壞,成了魔鬼。
如此說來,在西方的基督教文化里,“自由意志”是個最牛的概念,甚至可以為上帝脫罪。按照這個思路,亞當和夏娃吃了智慧之果,也象征著獲得了自
由意志,成了全能的上帝無法控制的東西,上帝只好把他們趕走,除了用洪水把壞蛋都淹死,或是到末日審判時秋后算賬,其他一概無計可施。
過去有個關于上帝的全能悖論:上帝能不能造一塊自己也舉不起來的石頭?如果回答不能,上帝就不是全能的。如果回答能,上帝就有舉不起來的石頭,
仍然不是全能的。不過這種特殊的邏輯悖論可以否定任何萬能和全能的事物,并不特指上帝。它造成的無能范圍也很小,對上帝的威望破壞力不大,正如哥德爾不
完全性定理并不能摧毀整個數學體系,視網膜上的盲點也不會影響視力。相比之下,如果上帝無法控制人的“自由意志”,固然有利于上帝逃避責任,但上帝的神
通可能就會因此大打折扣了。以下面這個小故事為例:
洪水泛濫,約翰在房頂上禱告,祈求上帝保佑平安。一只船從此經過,請他上船避難。約翰說:謝謝,不用了,上帝會保佑我的。一架直升飛機經過此
地,想要營救約翰,也遭到他相同理由的拒絕。洪水終于淹沒了房頂,約翰被淹死見后到了上帝。約翰說:我禱告得如此虔誠,你怎么不保佑我平安?上帝說:我
給你派了一艘船,一架直升飛機,難道做得還不夠嗎?
在這個故事里,如果上帝不能控制人的自由意志,那么直升飛機和船的駕駛員就是按照自己的自由意志去救援的,上帝派遣之說就是瞎吹牛,上帝是貪天
之功以為己力。如果上帝可以控制人的自由意志,那么約翰拒絕救援也是上帝沒控制好,上帝仍然難辭其咎。
二、牛人們的論辯
面對強人工智能,如何在機器中實現自由意志始終是一個“坎”。強人工智能的反對者也大多要拿“自由意志”說事。與此密切相關的概念還有意識、自
我、 靈魂、心靈等等,各個概念側重有所不同,但說的基本上是一回事。哲學家把這個問題稱為“心—腦問題”:人們承認人腦是物質的,甚至也可以承認大腦
就是機器,不過,靈魂、心靈或是自我意識和大腦之間是什么關系呢?強人工智能的支持者認為心靈(Mind)是大腦(Brain)的功能,而反對者則認為
這絕對不可能,一個機器怎么會有“自由意志”或“自我意識”呢?
這個題目意義重大,自然會有很多牛人參與討論。非常著名的“B-MI理論”(腦—心相互作用理論)就是波普爾(Karl R .Popper,
著名科學哲學家)和艾克爾斯(John C.Eccles,腦生理學家,諾獎得主)兩個牛人攢出來的。1977年二人出版了合著的《自我及其大腦
(The Self and Its Brain)》一書。這部鴻篇巨著讀起來如同在啃一個“巨大的酸果”,但其中有效的內容并不多,全篇的論述就像撒
謊圓謊的三口相聲《扒馬褂》——波普爾信口開河撒大謊,艾克爾斯費盡心機也圓不上。所謂B-MI理論,源于波普爾的三個世界理論。波普爾認為存在著物
質、心靈、人造物這三個獨立的世界,如果把人造物也歸入物質,實際上是兩個世界,即物質和精神。
在波普爾看來,精神世界完全是超物質的,這種想法固然對“自由意志”的存在非常有利,因為精神世界可以遵循與物質世界完全不同的規則(甚至沒有
規則)。但是,和所有二元論一樣,B-MI理論也面臨著一個嚴重的問題:B(物質世界的腦)和M(精神世界的心靈)之間的I(相互作用)到底是如何進行
的?作為哲學家的波普爾,感覺不到這種解釋的困難,在他看來順理成章。因為他可以公然宣布他的理論是“機器里的幽靈”,而不必操心非物質的幽靈如何操作
物質的機器。
但是,作為科學家的艾克爾斯,不認為這件事情可以輕松過關。為了把波普爾的謊話說圓,艾克爾斯發明了一個新概念——“半開放柱”。“柱
(Column)”是大腦皮層中的小區域,直徑大約0.5mm,包含上萬的神經元,在垂直于皮層表面的方向分成6層,可以執行一個簡單的功能,例如視覺
區的某些柱可以檢測某個特定方向的線段。艾克爾斯假設這些“柱”中有些是“半開放”的。所謂“半開放”是指這些“柱”可以被精神世界所影響,形成從心靈
到大腦的信息通道。由此必然產生下一個問題:精神是通過什么物理原理來影響“半開放柱”的?艾克爾斯認為是量子力學的效應,即“半開放柱”里的某些物質
的量子力學舉動會被精神世界所影響。這個想法自然不是艾克爾斯首創的,他畢竟不是個物理學家。早在20世紀初量子力學剛剛興起之時,就有物理學家在談
論“電子的自由意志”(列寧曾經寫文章從唯物主義的哲學角度批判過)。
即使假設艾克爾斯關于“半開放柱”的說法成立,這個解釋仍然只完成了一半,因為神經元的動作如何影響心靈還沒有得到解釋。我們似乎可以忽略掉這
個問題,例如可以假設靈魂無需從大腦的視覺區皮層獲得信息而能夠直接觀察世界,就像很多人發高燒時體驗過靈魂出竅,飄在高處看見自己躺在床上。但是這種
假設如果成立,會導致很荒唐的結論:我們根本不需要眼睛、耳朵和鼻子,以及它們背后龐大的神經系統,這些感覺器官只是為那些沒有靈魂的豬玀準備的。
物質世界與非物質世界的通訊問題只是困擾二元論的小困難。從根本上看,心腦二元論是類似于活力論、人類外星起源說的壞理論。這種壞理論的共同特
點是熱衷于把問題推到視線之外,而不是解決它們。我們很容易根據直覺把“心靈”或是“我”看成另一個實體,一個很小的“小人”在觀察和操縱大腦,但是這
樣一來對于“心靈”就會因為無法分析而陷于一無所知。要想按照這個思路解釋“心靈”,“小人”背后還需要更小的“小人”,陷入無限退行。
不過,也有科學家喜歡這種壞理論的,例如和史蒂芬·霍金共事的著名物理學家羅杰·彭羅斯就是一位。他先后寫了《皇帝新腦》和《心靈之影》兩本
書,介紹他反對強人工智能的觀點。而在通訊問題上,他和艾克爾斯一樣采用了量子力學解釋。不過他還要大膽和具體一些,在細胞里找出一種他稱之為“量子微
管”的小器官,代替艾克爾斯的“半開放柱”實現心腦通訊。由于量子微管存在于任何細胞之中,如果彭羅斯的假設成立,那么存在于肌肉細胞里的量子微管應該
可以被心靈直接操縱,無需通過神經系統。
自由意志與量子力學這兩個看似風馬牛不相及的事物為什么會被扯在一起,是非常耐人尋味的。對此我們可以找到兩個原因。
其一是很多量子現象與“觀察者”密切相關。根據我們實驗設計的不同,光子或電子可以分別顯示波動性和粒子性,粒子可以分別被測出位置和動量。這
些事實會給我們造成物質的量子行為受觀察者主觀意識影響的印象,從而給人以物質的量子行為可以接收精神信息的暗示。然而這種暗示是一種誤導。時至今日,
一切所謂觀察者對實驗結果的影響都是通過物質的實驗裝置產生的,沒有任何證據表明意識可以直接影響量子行為。
其二是在拉普拉斯決定論的背景之下,人們認為自由意志是反決定論的,而量子理論也是反決定論的,于是很自然地在二者之間產生聯想。但是從邏輯角
度看,B不是A,C也不是A,并不能推導出B就是C,或B和C必定有關系。從實踐的角度看,決定論只有純哲學的空想意義,對實踐本不應產生任何作用。
即使假定決定論是正確的,堪稱拉普拉斯妖的超級計算機也不可能存在,因為能夠記住宇宙全部粒子推算出未來一切的計算機一定比宇宙還大,這與宇宙
的定義是矛盾的。因此,實際上我們對于隨機現象的劃分很大程度上依存于我們的認識程度。例如,對于一個搞密碼學的人來說,擲骰子或者搖號機所產生的數列
是真正隨機的,但是從力學的角度看卻是決定論的。一個計算機里的隨機函數所產生的偽隨機數是決定論的,但是拿這些“偽”隨機數來用于需要隨機數的數字模
擬實驗,結果不會與“真”隨機數有什么區別。所以在計算機里并不會設計一個專用的硬件噪聲發生器來產生“真”隨機數,盡管成本幾乎不會增加。
實際上隨機的現象盡管難以預測,和自由意志的距離卻并不比決定論更近。可以做一個思想實驗:如果一個人有一張足夠長的表,每一行寫著一條指令,
足夠他用一輩子,他按照這個表一行一行的順序執行各種指令,活了一輩子,這樣的人是決定論的,我們可以認為他沒有“自由意志”。另一個人,也有一張足夠
長的表,每一行寫了六個指令,他每次都擲骰子,按照骰子的點數從六條指令中選出一條指令來執行,活了一輩子,這個人是隨機性的,我們會認為他比前一個人
更接近自由意志嗎?顯然是不行的。一個執行死硬程序的機器人沒有自由意志,但是僅靠在程序中加入隨機函數,并不能使這個機器人變得自由。明斯基
(Marvin Minsky 人工智能的先驅者)在他的《心靈的社會(THE SOCIETY OF MIND)》一書中討論過這個問題,他有個一句
話的總結:“機遇的女神和宿命的女神一樣無情。”
如果我們拋棄二元論的假設,采用認知心理學的基本假定——心理過程就是信息處理過程,那么自由意志就僅僅是一種幻覺或錯覺。明斯基基本上傾向于
這樣一種認識,但是他沒有走到非常徹底的地步。在《心靈的社會》這本書中,他用一幅圖畫形象地表達了這一立場:他畫了兩個并列的正方形,分別代表“確
定”和“隨機”。在兩個正方形之間又畫了一個很小的正方形,代表“自由意志”。他認為,雖然“自由意志”這一概念在科學上無法立足,但是社會的理由使我
們難以完全拋棄它,因為西方文化中的倫理和法制就是建立在人有“自由意志”的前提之上的。如果這個基礎被摧毀,個人就沒有理由為自己的行為負責,一切社
會的褒貶賞罰統統失去了根據,現存的社會秩序將不復存在。所以明斯基非常不情愿地保留了這個小方塊,給“自由意志”留下一席之地。
在中國的傳統文化中不存在這個問題。孔子的“君君臣臣父父子子”并不是從某個基本公理中推導出來的,正如《九章算術》里包括了很多正確的實用算
法,卻無需給出任何證明。
三、自由意志錯覺的進化論意義
如果我們認為“自由意者”僅僅是一種錯覺,那么只是表達了一種哲學立場。哲學可以容納多種不同甚至對立的立場,而未必能夠分出誰對誰錯。如果從
科學的角度看,我們就需要解釋“自由意志”的錯覺從何而來,正如我們支持日心說,也需要解釋我們直觀的地心錯覺是如何產生的。畢竟絕大多數人的直觀感覺
是支持“自由意志”存在的。
自由意志錯覺可以分為兩個方面:外觀和內省。外觀是指我們觀察他人時感覺別人是具有自由意志的,內省是指我們觀察自身的思考過程也會感到自己是
具有自由意志的。實際上自由意志錯覺的根源是內省,對其他人的觀察是其行為方式與我們自己相似,從而推斷出他人也和自己一樣具有自由意志。但是這種推己
及人的方式并非總是有效的,例如當我們考慮其他動物時就會出現不同意見。笛卡爾認為人是有靈魂的,而其他動物只是自動機器。更有人總結說:養過狗的哲學
家都認為狗有靈魂,而沒養過狗的哲學家則認為狗沒有靈魂。但是對于昆蟲這一級的動物,大概多數人會認為它們沒有自由意志。
現在我們還沒有憑借外部觀察判斷人或動物有沒有自由意志的可靠判據。通常認為人有自由意志的直觀感覺來自一些我們認為與之相關的其它特征,例如
復雜性、多變性、合目的性、非重復性、非機械性等等。但是,這些特征未必能夠成為自由意志的根據。例如,普通的國際象棋規則看起來非常簡單,王、后、
車、相、馬、兵各有固定的走法。我們可以給它加上一條簡單規則,創造出新的國際象棋。
這條規則是這樣的:棋盤上有64個位置,每個位置有棋子定義為“1”,沒有棋子定義為“0”,那么每個棋局就得到一個64位的二進制數,稱之
為“棋局數”,再將“棋局數”代入哈希函數,求出“哈希數”,取“哈希數”的最后兩位再加一,可以得到從1到4的一個整數,稱之為“偏移量”。然后按
照“偏移量”對每個棋子(除了“王”以外)進行“變臉”操作:每個棋子變成“偏移量”之后的棋子。例如,按照“后、車、相、馬、兵”的順序,當“偏移
量”為1時,后變成車,車變成相……兵變成后,當偏移量為2時,后變成相,車變成馬,……兵變成車。依此類推。這種新的國際象棋每走一步都會出現新的棋
局,算出新的偏移量,進行一次棋子變臉。當然,讓人來下這種變臉象棋恐怕太累了,但是讓機器來下,增加的計算量并不多,可以考慮讓兩臺計算機來下變臉象
棋,人們坐下來旁觀。
這時候我們看到的兩位計算機棋手的行為相當復雜、多變、合目的(取勝)、不重復、不機械,但是說它們具有自由意志還是根據不足,至少編制下棋程
序的人知道程序是完全決定論的。
所以自由意志錯覺實際上主要產生于內省過程。雖然弗洛伊德的精神分析方法被波普爾說成是偽科學,但是弗洛伊德關于下意識的學說至今是得到承認
的。現在我們認為,通過內省可以看到的思維活動,或曰可以被意識到的大腦活動只是大腦全部活動的極小部分,只是冰山的一角。人腦的絕大部分活動是在意識
之外的,所以內省產生錯覺絲毫也不奇怪。
內省的這種局限性在我們試圖用計算機模擬大腦功能時越來越多的暴露出來了。看似簡單的人物或文字的識別,用計算機實現卻相當費勁,而且效果遠不
及人腦。更重要的是,人腦的這一部分信息處理過程處于意識的視野之外,靠內省難以到達。內省所不及的大腦活動還有很多,例如我們知道我們想要拿一個杯
子,手就會伸出去完成任務,但是大腦此時向哪一塊肌肉發出多強的脈沖是我們無法通過內省覺察的。我們只能看到行動的結果,卻看不到詳細的神經活動過
程。
人類行為的非機械性主要體現在其學習能力上。其他動物也有不同程度的學習能力,但是人類能夠靠學習改變的內容明顯比其他動物多得多。其他動物的
生存技能主要靠本能,學習只是對本能的修飾,而人類的生存技能大部分都是從文化中學習到的。實際上學習也是可以機械化的,“機器學習”是人工智能的重要
領域。學習的實質是優化,而優化也是數學中的一個專門領域。人類或動物的學習是“半工半讀”的過程,人做事就是在隨時學習,所以人的一切行為(思考也是
內在的行為)都會改變腦中的信息,從而改變今后的行為方式。所以人就會表現出比“變臉象棋”更為復雜多變難以預測的行為。兩臺計算機對弈“變臉象棋”是
一個封閉系統,而人在生存過程中不斷與多變的環境交換信息,這是復雜性的另一個來源。
機器學習的研究雖然十分繁榮,但是對于解釋人類行為來說還有差距,主要表現在對人腦如何組織和調度這些局部一時的學習,形成全面終生學習的機制
研究得還不夠。可以說,這種調度機制與人的自我意識密切相關。如果我們拒絕導致無限退行的“小人”理論,就需要找出一個對“自我意識”的基于信息處理的
機械論解釋。按照明斯基的“心靈社會”理論,我們的大腦是由眾多“Agent”組成的“社會”,在(弱)人工智能界通常把Agent翻譯成“智能主
體”,但在
這里我寧愿使用其原意“代理者”。
每個代理者可以完成特定的一種或一類任務,代理者可以調用其它代理者幫助它完成任務。通過某種學習算法可以生成和完善新的代理者,使得代理者在
人的生存過程中通過學習不斷增加,人的能力(技能)也因此而增加。代理者之上沒有“中樞”對它們進行調度,只存在一個簡單的競爭上崗機制:每個代理者按
照自己特定的評價函數根據時間和環境參數計算自己的評價值,評價值最高的代理者奪取當時的控制權。
應用代理者社會的模型,如何解釋“自我意識”呢?或者說,我們如何感覺到“我”的存在呢?克里克(Francis Harry
Compton Crick ,因提出DNA雙螺旋結構模型獲諾貝爾獎)晚年致力于意識問題研究,著有《驚人的假說——靈魂的科學探索》
(http://www.tianyabook.com/zhexue/linghun/index.html)一書。在書的第二章《意識的本質》
(http://www.tianyabook.com/zhexue/linghun/004.htm)中,克里克寫道:
“早在一百年前,三個基本的觀點就已經盛行:
1.并非大腦的全部操作都與意識有關。
2.意識涉及某種形式的記憶,可能是極短時的記憶。
3.意識與注意有密切的關系。”
基于這個一百年前盛行的觀點,我們也可以建立起關于意識的簡化模型。假設大腦中的每個代理者都具有短時間(數秒鐘)的記憶能力(這并不是說沒有
長時記憶能力,而是長時記憶不影響自我意識的感覺,一個失憶癥患者仍然有意識),當我們遇到“我正在想什么呢?”這類問題時,一個專門的代理者會被啟
動,調用之前處于活動狀態的代理者的短期記憶,使其處于中斷停留的狀態。從而獲得“我知道自己在想什么”的感覺。
當然,“自我”的感覺只是意識活動的副產品。意識活動與“注意”的密切相關,意味著意識過程的目的是“學習”的組織和調度。一般來說,習以為常
的行為是“自動”完成的,不會引起我們的“注意”。而我們所“注意”的,多是不熟悉(即需要學習或難以預測的)行為和現象。因此“注意”的機制實際上就
指定了當時學習的領域。經過學習使得某一技能或現象變得習以為常之后,“注意”會轉向新的領域或層次,引起下一階段的學習。
在該書的最后《關于“自由意志”的跋》
(http://www.tianyabook.com/zhexue/linghun/021.htm)中,克里克就自由意志的問題談了一些有趣的看
法,有興趣的讀者可以參考。本文的關注點與克里克有所不同,我們提出的問題是,自由意志的感覺(或曰錯覺)在進化過程中起什么作用?或者說自由意志的感
覺有什么好處?
通常,如果沒有遇到困難的決策,我們幾乎不會感到“自由意志”的存在,我們會按照習慣、常識知道應該去干什么。但是當我們遇到不熟悉的環境或難
以預知結局的境況,會感到決策的困難,各種待選方案浮現于腦中,反復比較之后最終拿定主意。在執行決策之后,如果成功了,我們會回憶起過去的待選方案,
慶幸自己做出正確的決策;如果失敗了,我們也會想起過去的備選方案,后悔決策的錯誤,會想到當時如果選擇另一個方案結果會更好。這些過程會使我們感覺到
是“我”在作決策,是“我”在慶幸,是“我”在后悔,這就是“自由意志”存在的感覺。
以上是我們通過內省可以感覺到的思維過程,但還遠遠不夠詳細,不足以讓我們理解其中的機制。使用代理者模型,我們可以推測出內省所觀察不到的深
層過程:在熟悉的環境中,以往的學習為我們建造了足夠的代理者,使我們能夠不假思索地應付環境。當我們遇到不熟悉的問題時,現成的最佳代理者尚不存在,
只能啟動搜索機制,尋找相近的代理者加以修飾轉用。此時次佳的代理者會有若干個,何者最佳尚缺乏經驗根據,此時的選擇可能隨機因素的影響更多。待成敗的
結局出現之后,選擇是否正確也就有了定論,此時回憶選擇過程,重新調出當時參與選擇的各個代理者,就可以根據這次經驗修正各代理者的評價函數,使得今后
遇到相同境況時決策正確的概率增加。
通過上述機制可以看出,自由意志錯覺是人類在有長遠計劃行動能力時提高決策準確度的學習過程的副產品。這就是自由意志錯覺的進化論意義。
四、社會責任基礎的改建
如果自由意志只是一種錯覺,并不真的存在,我們就需要解決明斯基所擔心的問題:在一個否認自由意志的世界,我們用什么來作為社會道德賞罰的根
據?
按照一般的常識,我們不可能讓一臺沒有自由意志的機器承擔任何責任。但是應該指出的是,這里關于“機器”的印象是十分古老的。一提起“機器”,
我們頭腦中總是浮現出像汽車、機床這樣一些由齒輪連桿結合在一起,只能死板地執行任務的鐵家伙。對于這類“機器”而言,談論道德、責任、賞罰確實沒有意
義。甚至對于我們現在日常所使用的計算機而言,這個判斷依然正確,因為目前大多數的計算機應用都不包含學習和決策的功能。
不過如果我們進一步推廣“機器”的概念,例如按照“大腦是一部機器”的說法,我們關于“機器”的印象可能需要大為改觀才行。機器學習的算法就
是“優化”的算法,機器可以通過學習逐漸改進自己的行為方式。“優化”是數學的一個重要的研究領域,但是數學所研究的是如何提高優化算法的效率,盡快地
找到最佳點,而不研究什么是“優”,什么是“劣”這樣的價值觀問題。機器學習所依據的的價值觀是設計者制定的,而學習過程都需要“獎勵”和“懲罰”的機
制。
簡單的機器學習需要獎懲,復雜的機器學習遇到另一個問題,即當一個由很多可學習的部分(代理者)組成的系統,總體產生一個好的(或壞的)結果,
我們應該獎勵(或懲罰)哪一個代理者呢?還是不分青紅皂白各打五十大板?明斯基研究過這個問題,稱之為“責任局部化問題”。由此可知,一個能學習的機
器,不僅會涉及獎勵和懲罰,也會涉及“責任”,與是否具備“自由意志”無關。
會學習的動物都有先天的生物價值觀作為學習的導向,這些先天的價值觀是進化的產物,適者生存的機制保障了其正確性。對于有文化傳承的動物(特別
是人)而言,還會有很多后天習得的文化價值觀。人類不是真社會性動物,卻創造了極其復雜的社會結構。為此,也創造出諸多的稱為“道德”的社會價值觀,以
保障社會的順利運行。和“心靈社會”中的“代理者”相似,現實社會中的學習個體(個人)同樣存在著獎懲和責任歸屬問題,這與個體是否具有“自由意志”無
關,只是學習調度的需要。
五、自由意志悖論
最后用一個小故事結束本文。這個故事出自于一本關于悖論的小冊子,原來的小標題就是自由意志悖論。我覺得這個故事應該算不上悖論,可以算是一個
思想試驗吧。
一群外星人來到地球,要對地球人進行關于自由意志的研究。他們募集了一批被試者,在正式實驗的前一天夜間趁著被試者睡覺的時候對所有被試者的大
腦進行了全面的掃描,充分了解了每個被試者的思路。
實驗很簡單,被試者排隊依次進入一間小屋,屋里有一張桌子,桌子上放了兩個箱子,一個是透明的,可以看到里面放的是一千美元;另一個是黑箱子,
看不到里面裝的是什么。被試者可以拿走任何一個箱子,也可以兩個都拿走。拿走之后箱子里的內容物就是給被試者的酬勞。排在后面的被試者可以看到前面被試
者的實驗結果。他們發現,拿了兩個箱子出來的人,那個黑箱子打開一看都是空的;而只拿一個黑箱子出來的人,打開見到箱子里都有一百萬美元。
一個不相信自由意志的經驗主義者,在看到別人的實驗結果之后選擇了只拿一個黑箱子,出來打開一看,不出所料獲得了一百萬美元。
一個相信自由意志的理性主義者是這樣思考的:在我進屋之前箱子已經被外星人放好了,無論我如何選擇,箱子里的內容都不會改變,從利益最大化原則
出發我應該拿兩個箱子出去,這樣無論黑箱子里裝的是什么,我都會比只拿黑箱子出去要多得一千美元。結果很遺憾,黑箱子是空的,他得到一千美元。
讀過這個故事之后我在想:如果我去當被試者會如何選擇?
在看到前面的實驗結果之后,我肯定會對外星人的大腦掃描技術之高感到十分驚訝,然后會想到進一步測試其預測精度。我可以從兜里掏出一個硬幣拋
出,如果落地后正面朝上我就只拿一個黑箱子,反面朝上則拿兩個箱子走。看看外星人是否連我拋硬幣的力量、姿勢和硬幣的運動軌跡也能精確預測。
來自新雨絲和Toplanguage的評述.