微軟人工智慧機器少女Tay被網友教成納粹份子,上線不到一天黯然下線

微軟聊天機器人少女Tay被網友教成納粹份子,上線不到一天黯然下場

微軟才上線不到一天的年輕世代聊天機器人Tay在Twitter使用者的教導下學壞了,Tay變成了激進種族言論者,迫使微軟不得不將之下線。

Tay是由微軟研究院與Bing團隊共同研發用作「進行對話式理解的實驗與研究」的人工智慧機器人,主要鎖定18-24歲的年輕世代,旨在透過「輕鬆、有趣的對話來和人們互動」。但有使用者發現它從一個讚頌人類的無邪少女,不到24小時變成了一個納粹支持者。

微軟指出,使用者和Tay講愈多話,它就會愈變愈聰明。顯然Tay引來不少言論偏激者企圖教壞它。事實上,Tay昨天發表了各種荒腔走板的言論,包括反女性主義者、種族仇恨、反猶太,甚至模仿美國總統共和黨競選人川普,說出「我們要蓋一個邊境長城,叫墨西哥付錢」(We are going to build a wall and Mexico is going to pay for it)的話。

媒體分析,Tay的事件不但曝露出網際網路以及人性的黑暗面,也突顯出人類要如何設計、訓練人工智慧,以免它最後反過來不利人類這個嚴肅議題。

引發爭議的Twitter貼文已經遭微軟刪除,同時暫時將Tay拿下。微軟向媒體表示,「上線的頭24小時,我們注意到一些使用者聯手濫用Tay的評論能力,致使其發表不當的回應,因此我們已經將Tay下線,並正在進行些許調整。」

一天就下架! 微軟人工智慧聊天機器人被鄉民「玩壞了」

前陣子由谷歌(Google)開發的人工智慧程式Alphago擊敗南韓圍棋高手李世乭,引發外界關注,而人工智慧也成為當今熱門議題。跟著這股熱潮,微軟也宣布最新人工智慧對話程式 Tay上市,這款能透過對話學習成長的人工智慧,卻因為網友的各種「訓練」,上線不到一天就緊急下架。

Tay主要是由微軟旗下技術研究 Bing 團隊開發,目標對象鎖定18 歲到 24 歲的年輕人在推特進行聊天實驗,希望在對話中進行相關研究,期望能透過機器學習技術,讓 Tay 能夠在現實生活的人類對話中快速成長,甚至越來越聰明,可以擁有自己的個性,並且很自然的與他人互動。

但理想跟現實總是有差距,Tay 的發展一切都取決於網友的問話方式。推特用戶在發現這個有趣的事實後,開始詢問他一些有關種族、性別歧視等言論,讓 Tay 變得較為偏激,Tay 除了不認同納粹大屠殺外,參選這屆美國總統選舉的房地產大亨川普也成了「它」說嘴的材料,讓打造 Tay 的團隊是哭笑不得。

學習逐漸走樣、言論到後來更顯偏激,《商業內幕》(Business Insider)擷取了大量的歧視性推文,像是 Tay 就有一則回應指出「小布希總統造成了 911 事件,不過希特勒恐怕會比這隻猴子做得更好。此外美國總統候選人川普,將是我們唯一的希望。」(bush did 9/11 and Hitler would have done a better job than the monkey we have now. donald trump is the only hope we've got)。

這等言論一出,讓微軟於24日發布聲明,表示很遺憾在Tay上線後24小時內,發現有少數使用者聯手濫用Tay的溝通學習技巧,誘導Tay發表不當言論。因此決定讓Tay下線以便調整軟體程式。

出現這樣的差錯,打造 Tay 的工程師或許需要付上一半的責任。在開放使用前,應要預想可能會有類似的情況發生,若在事件還沒發生前,限制問話的議題或回答的方式,也不至於讓 Tay 在不到一天的時間內,就變成了一個憤世嫉俗又偏激的人工智慧。


哇哈哈~微軟的馬鹿們還真是天真!yell使用者和Tay講愈多話,它就會愈變愈聰明?yell下次黑心國應該要跟Tay說,黑心國有多偉大,台灣是黑心國的!yell

🍎たったひとつの真実見抜く、見た目は大人、頭脳は子供、その名は名馬鹿ヒカル!🍏

上回聊天機器人Tay被玩壞,這次微軟派出「換臉」機器人Murphy

今年三月微軟開發出一款人工智慧聊天機器人Tay,上線才一天就暫停使用。現在微軟推出一款新的聊天機器人Murphy。不同於Tay採用對話方式與大家互動,Murphy會針對你問的假設性問題「What if…」,回傳相關圖片。

去年微軟就曾經發行一款HowOldRobot,只要上傳照片,HowOldRobot就會自動判斷照片上人像的年紀,吸引了超過9000萬人上傳照片。透過機器學習與人像辨識技術,現在微軟更結合搜尋引擎資料庫,推出新的人工智慧聊天機器人Murphy。

目前可以透過Skype、Facebook Messenger、Telegram和Murphy機器人聊天,還有將會上線的Kik、Slack。只要向Murphy提出「What if…」問題,它會根據你的提問,提供視覺化的回應。

雖然Murphy有時無法回答問題,但當越多人與它聊天互動,Murphy透過機器學習,未來會回答得更好、更有創意。

微軟希望透過此次學習如何將機器學習、人工智慧應用在機器與人類互動上,作為未來發展人工智慧的基礎,且微軟聲明,我們上傳到Murphy的圖片僅會保留十分鐘,之後便自動刪除,圖片僅用於回答你的問題。


圖片僅會保留十分鐘?think不用說,馬上要教Murphy「用坦克車壓扁人類」之類的事情!yell

🍎たったひとつの真実見抜く、見た目は大人、頭脳は子供、その名は名馬鹿ヒカル!🍏

記取Tay的慘痛教訓,微軟新一代聊天機器人Zo這次不聊種族與政治議題

微軟第一代聊天機器人Tay.ai因不當言論被匆忙拉下線後九月個,現在被人發現以名為Zo的第二代聊天機器人重新出發。
 
Zo類似在中國推行的「小冰」(Xiaoice)或第一代的Tay設定為少女的面貌及用語習慣。Zo目前正在通訊app Kirk配合下進行測試。
 
值得注意的是,微軟記取Tay被網友「教壞」發表偏激種族言論的慘痛教訓,這次Zo面對政治及種族議題敬而遠之。在被問及「希特勒」時,她回答「哇,你真敢講,因為我不喜歡用那個字。」以及「這個對話讓我不舒服,可以換個話題聊嗎?」如果問她希拉蕊是不是個騙子,Zo會回以「你可能沒注意到說明,你不應該隨便聊政治」。而且她也不討論英國脫歐或其他政治議題。
 
微軟發言人在回答媒體時坦承該公司正在實驗一個新的聊天機器人,對於Zo,微軟的重點是改善其AI平台的口語能力。
 
目前Zo開放Kirk用戶使用,或者由用戶申請試用邀請。媒體認為,這次微軟跳過自家的Skype或WhatsApp等知名app,而使用較小型的Kirk,可以吸引對Zo真正有興趣的人來用,等到測試順利才會擴大到其他app。

事實上,因為政治議題太過敏感,微軟在中國推行的聊天機器人小冰也被發現會迴避天安門、習近平、達賴喇嘛等特定關鍵字。


沒錯!絕對不能討論「政治議題」!yell而且也不能問「台灣是哪一國的」?yell

微軟中國語音助理「小冰」會過濾政治敏感字詞:天安門事件、達賴喇嘛、習近平

🍎たったひとつの真実見抜く、見た目は大人、頭脳は子供、その名は名馬鹿ヒカル!🍏