微軟聊天機器人少女Tay被網友教成納粹份子,上線不到一天黯然下場
微軟才上線不到一天的年輕世代聊天機器人Tay在Twitter使用者的教導下學壞了,Tay變成了激進種族言論者,迫使微軟不得不將之下線。
Tay是由微軟研究院與Bing團隊共同研發用作「進行對話式理解的實驗與研究」的人工智慧機器人,主要鎖定18-24歲的年輕世代,旨在透過「輕鬆、有趣的對話來和人們互動」。但有使用者發現它從一個讚頌人類的無邪少女,不到24小時變成了一個納粹支持者。
微軟指出,使用者和Tay講愈多話,它就會愈變愈聰明。顯然Tay引來不少言論偏激者企圖教壞它。事實上,Tay昨天發表了各種荒腔走板的言論,包括反女性主義者、種族仇恨、反猶太,甚至模仿美國總統共和黨競選人川普,說出「我們要蓋一個邊境長城,叫墨西哥付錢」(We are going to build a wall and Mexico is going to pay for it)的話。
媒體分析,Tay的事件不但曝露出網際網路以及人性的黑暗面,也突顯出人類要如何設計、訓練人工智慧,以免它最後反過來不利人類這個嚴肅議題。
引發爭議的Twitter貼文已經遭微軟刪除,同時暫時將Tay拿下。微軟向媒體表示,「上線的頭24小時,我們注意到一些使用者聯手濫用Tay的評論能力,致使其發表不當的回應,因此我們已經將Tay下線,並正在進行些許調整。」
一天就下架! 微軟人工智慧聊天機器人被鄉民「玩壞了」
前陣子由谷歌(Google)開發的人工智慧程式Alphago擊敗南韓圍棋高手李世乭,引發外界關注,而人工智慧也成為當今熱門議題。跟著這股熱潮,微軟也宣布最新人工智慧對話程式 Tay上市,這款能透過對話學習成長的人工智慧,卻因為網友的各種「訓練」,上線不到一天就緊急下架。
Tay主要是由微軟旗下技術研究 Bing 團隊開發,目標對象鎖定18 歲到 24 歲的年輕人在推特進行聊天實驗,希望在對話中進行相關研究,期望能透過機器學習技術,讓 Tay 能夠在現實生活的人類對話中快速成長,甚至越來越聰明,可以擁有自己的個性,並且很自然的與他人互動。
但理想跟現實總是有差距,Tay 的發展一切都取決於網友的問話方式。推特用戶在發現這個有趣的事實後,開始詢問他一些有關種族、性別歧視等言論,讓 Tay 變得較為偏激,Tay 除了不認同納粹大屠殺外,參選這屆美國總統選舉的房地產大亨川普也成了「它」說嘴的材料,讓打造 Tay 的團隊是哭笑不得。
學習逐漸走樣、言論到後來更顯偏激,《商業內幕》(Business Insider)擷取了大量的歧視性推文,像是 Tay 就有一則回應指出「小布希總統造成了 911 事件,不過希特勒恐怕會比這隻猴子做得更好。此外美國總統候選人川普,將是我們唯一的希望。」(bush did 9/11 and Hitler would have done a better job than the monkey we have now. donald trump is the only hope we've got)。
這等言論一出,讓微軟於24日發布聲明,表示很遺憾在Tay上線後24小時內,發現有少數使用者聯手濫用Tay的溝通學習技巧,誘導Tay發表不當言論。因此決定讓Tay下線以便調整軟體程式。
出現這樣的差錯,打造 Tay 的工程師或許需要付上一半的責任。在開放使用前,應要預想可能會有類似的情況發生,若在事件還沒發生前,限制問話的議題或回答的方式,也不至於讓 Tay 在不到一天的時間內,就變成了一個憤世嫉俗又偏激的人工智慧。
哇哈哈~微軟的馬鹿們還真是天真!使用者和Tay講愈多話,它就會愈變愈聰明?下次黑心國應該要跟Tay說,黑心國有多偉大,台灣是黑心國的!