當前位置:首頁 > 科普 > 列表 > 正文

“人工智能,有必要像人類一樣嗎?”
2022-07-29

機器會思考嗎?人工智能可以像人類一樣聰明嗎?

一項最新研究表明,人工智能或許可以做到了。

在一項非語言圖靈測試中,意大利技術研究院 Agnieszka Wykowska 教授領銜的研究團隊發現,類人行為變異性(Behavioral variability)可以模糊人與機器之間的區別,即可以幫助機器人看起來更像人類。

具體來說,他們的人工智能程序在與人類隊友玩有關形狀和顏色匹配的游戲時,模擬了人類反應時間的行為變異性,通過了非語言圖靈測試。

相關研究論文以“Human-like behavioral variability blurs the distinction between a human and a machine in a nonverbal Turing test”為題,已發表在科學期刊 Science Robotics 上。

研究團隊表示,這一工作可以為未來的機器人設計提供指導,賦予機器人具有人類可以感知的類似人類的行為。

對于這一研究,林雪平大學認知系統教授 Tom Ziemke 和博士后研究員 Sam Thellman 認為,研究結果“模糊了人與機器之間的區別”,為人們對人類社會認知的科學理解等方面做出了非常有價值的貢獻。

但是,“人類相似性不一定是人工智能和機器人技術發展的理想目標,讓人工智能不那么像人類可能是一種更加明智的做法。****”

圖片

通過圖靈測試

1950 年,“計算機科學與人工智能之父”艾倫·圖靈(Alan Turing)提出了一種用于判定機器是否具有智能的測試方法,即圖靈測試。

圖靈測試的關鍵思想是,有關機器思維和智能可能性的復雜問題,可以通過測試人類是否能夠分辨出他們是在與另一個人還是與一臺機器在交互來驗證。

如今,圖靈測試被科學家用來評估應該在人工智能體上實現什么樣的行為特征,才能使人類不可能將計算機程序和人類行為區分開。

人工智能先驅司馬賀(Herbert Simon)就曾表示:“如果程序表現出的行為類似于人類表現出來的,那我們就稱它們是智能的?!?/strong> 類似地,Elaine Rich 將人工智能定義為“研究如何讓計算機去做目前人做得更好的事情”。

而非語言圖靈測試,是圖靈測試的一種形式。對于人工智能來說,通過非語言圖靈測試并不容易,因為它們在檢測和區分其他人(物體)的微妙行為特征方面,表現得并不像人類那樣熟練。

那么,一個類人機器人是否能夠通過非語言圖靈測試,在其物理行為中體現人類特征呢?

在非語言圖靈測試中,研究團隊試圖搞清楚能否通過編程讓人工智能在類似于人類行為變異的范圍內改變反應時間,從而被視為人類。為了做到這一點,他們將人類和機器人安排在一個屏幕上有不同顏色、形狀的房間里。

圖片

圖|機器人與人類共同執行任務。(來源:該論文)

當形狀或顏色改變時,參與者就會按下按鈕,而機器人則通過點擊屏幕上顯示的相反顏色或形狀來響應這一信號。

圖片

圖|通過按下按鈕來響應(來源:該論文)

在測試過程中,機器人有時由人類遠程控制,有時由被訓練模仿行為變異性的人工智能控制。

圖片

圖|參與者被要求判斷機器人行為是預先編程的還是由人類控制的(來源:該論文)

結果表明,參與者可以很容易地分辨出機器人何時是被另一個人操作的。

但是,當機器人被人工智能操作時,參與者猜錯的概率卻超過了 50%。

圖片

圖|圖靈測試的平均準確率。(來源:該論文)

這就意味著,他們的人工智能通過了非語言圖靈測試。

但是,研究人員也表示,類人行為的可變性可能只是通過實體人工智能的非語言圖靈測試的一個必要不充分條件,因為它在人類環境中也可以表現出來。

圖片

人工智能,有必要像人類一樣嗎?

長期以來,人工智能研究一直將人類相似性作為目標和衡量標準,Wykowska 團隊的研究證明,行為變異性或許可以用來讓機器人更像人類。

Ziemke 等人卻認為讓人工智能不那么像人類可能是一種更加明智的做法,并以自動駕駛汽車和聊天機器人兩個案例做了闡述。

比如,當你在馬路上準備穿過人行橫道時,看到一輛汽車正在接近你,從遠處看,你可能無法判斷它是否是一輛自動駕駛汽車,所以你只能根據汽車的行為來判斷。

圖片

(來源:Pixabay)

但是,即使你看到有人坐在方向盤前面,你也不能確定這個人是在主動控制車輛,還是僅僅在監控車輛的行駛操作。

“這對交通安全有著非常重要的影響,如果自動駕駛汽車不能向其他人表明它是否處于自動駕駛模式,可能就會導致不安全的人機互動?!?/strong>

也許有些人會說,理想情況下,你并不需要知道一輛車是不是自動駕駛,因為從長遠來看,自動駕駛汽車可能比人類更擅長駕駛。但是,目前而言,人們對自動駕駛汽車的信任還遠遠不夠。

聊天機器人,則是更接近圖靈最初測試的現實場景。許多公司在他們的在線客戶服務中使用聊天機器人,其中的對話話題和互動方式相對有限。在這種情況下,聊天機器人通?;蚨嗷蛏倥c人類沒有區別。

圖片

(來源:Pixabay)

那么,問題就來了,企業是否應該將聊天機器人的非人類身份告訴客戶呢?一旦告訴了,往往會導致消費者產生負面反應,比如信任下降。

正如上述案例所說明的那樣,雖然從工程學的角度來看,類人行為可能是一項令人印象深刻的成就,但人機的不可區分性卻帶來了明顯的心理、倫理和法律問題。

一方面,與這些系統交互的人必須知道他們所交互的內容的性質,以避免欺騙。以聊天機器人為例,美國加州自 2018 年起就制定了聊天機器人信息披露法,明確披露是一項嚴格的要求。

另一方面,還有比聊天機器人和人類客服更無法區分的例子。例如,當涉及到自動駕駛時,自動駕駛汽車和其他道路用戶之間的交互并沒有同樣明確的起點和終點,它們通常不是一對一的,而且它們有一定的實時約束。

因此,問題在于,關于自動駕駛汽車的身份和能力,應該在何時、以何種方式來傳達。

此外,完全自動化的汽車可能還需要幾十年的時間才能出現。因此,在可預見的未來,混合交通和不同程度的部分自動化可能會成為現實。

關于自動駕駛汽車可能需要以什么樣的外部接口來與人交流,已有很多研究。然而,人們對于兒童、殘疾人等弱勢道路使用者實際上能夠和愿意應對的復雜性,還知之甚少。

因此,上述的一般規則,即“與這樣的系統交互的人必須被告知交互對象的性質”,可能只有在更明確的情況下才有可能遵循。

同樣,這一矛盾心理也反映在社交機器人研究的討論中:鑒于人類傾向于將精神狀態擬人化并賦予其類似人類的屬性,許多研究人員旨在讓機器人在外觀和行為上更像人類,這樣它們就可以或多或少地以類似人類的方式進行互動。

然而,也有人認為,機器人應該很容易被識別為機器,以避免過度擬人化的屬性和不切實際的期望。

“因此,更明智的做法可能是利用這些發現讓機器人變得不那么像人類?!?/p>

在人工智能的早期,模仿人類可能是一個業內的共同目標,“但在人工智能已經成為人們日常生活的一部分的今天,我們至少需要思考,在什么方向努力實現類似人類的人工智能才真正有意義”。

參考鏈接:

https://www.science.org/doi/10.1126/scirobotics.abo1241

https://www.science.org/doi/10.1126/scirobotics.add0641

學術頭條

開通會員,享受整站包年服務立即開通 >
欧美五月丁香六月综合合_成年在线视频免费观看完整版_交换国产精品视频一区_免费一本色道久久一区