現今有愈來愈多科技產品開始使用人工智慧(AI)技術,不過近日有研究人員發現,擁有強大學習能力的AI產品,竟也有可以被簡單騙過的BUG!
▲研究人員發現,用一張紙條就能騙過AI的視覺判讀。(圖/OpenAI)
機器學習實驗室「OpenAI」的研究人員發現了一件不太尋常卻有趣的事。據《The Verge》報導,研究人員在對AI進行電腦計算視覺辨識的實驗時,以照片內容辨識的圖像視覺AI,居然會因為一張人類的手寫標籤而產生誤會。
實驗人員在一顆蘋果上貼上寫著iPod的字條,AI會將讀到的「字串」直接覆蓋掉原本所辨識正確的「物體」,也就是AI會告訴你,這是一台iPod而不是蘋果,產生了錯誤的辨讀結果。
▼研究人員測試了不同單字,也同樣能騙過AI。(圖/OpenAI)
這種「指鹿為馬」的現象,被研究人員稱之為「印刷攻擊(typographic attacks)」,其成因源於AI強大的視覺辨識技術,也就是讀取文本的能力,尤其是有著手寫文字的照片,經常成功「騙過」AI,以致於產出錯誤的結果。
這種看似有趣的Bug,事實上對於不少依賴視覺辨識AI的科技產品有著高度風險。舉例來說,假設特斯拉(Tesla)的自動駕駛技術,讀取到了路牌上被人刻意竄改的錯誤標誌,就有機會成功騙過AI,進而做出錯誤的駕駛行為或判斷,同樣的道理適用在醫學到軍事用品上,都是相當嚴重的安全漏洞。
強大的AI,為何會被一張字條給騙過呢?研究人員發現,在這項實驗中出問題的部分,是個被稱為「CLIP」的實驗系統,而導致CLIP遭受印刷攻擊的因素,源自於研究人員對CLIP採取極度放任的訓練方式。
▼AI和人類一樣,可以將學習到的知識內化並歸類。(圖/OpenAI)
一開始,CLIP在沒有嚴格監督與過濾的狀況下,從網路上隨意收集了高達 4 億張圖文,藉此成為識別內容的基礎,也因此,CLIP幾乎可以辨認任何東西,從字串、手繪圖、卡通圖片到實際照片,都能給出結果並歸類為同個內容,這也代表AI是可以和人類一樣,將學習到的知識內化。
不過AI和人類不同,以上述實驗舉例,人類可以清楚明白青蘋果和寫著iPod字條的不同,像是遊戲中把「紅、藍、綠、黃」這幾個字染成與字面上不同的顏色,人類回答出字樣顏色時,答錯了會知道自己答錯,但AI不會,這都說明了「人工智慧」與「人類智慧」有著大大不同。幸好CLIP目前尚未被用在上市產品中,但若未來將使用這項技術,這種低級BUG還是盡快排除較好!
▼字面顏色錯置遊戲,可以訓練人的專注度。(圖/翻攝自網路)
©Next TV BROCASTING LTD. All Rights Reserved. 壹傳媒電視廣播股份有限公司 版權所有