Google AI絕不會進入的四種應用場景,堪稱AI道德規範的「谷歌11條」隱含大量偏見!專家:如同歷史至今的不平等

Google 發布「谷歌11條」釐清 AI 的道德底線?

人工智慧應該怎麼「管」這個事上,Google 的大咖說話了!在美國國防部合作專案被員工要求關閉的風波之後,Google 發布了公司在使用人工智慧的十一條準則。

其中包括Google 進行AI 研發的七個目標,和Google AI 絕不會進入的四種應用場景,堪稱AI 道德規範的「谷歌11條」。

CEO Sundar Pichai 在發布準則的公開信裡,也對國防部專案爭議做出了直接回應,表示今後不會讓AI 涉及武器化的應用,但並未「一刀切」,和政府、軍方劃清界限。

作為AI 界的帶頭大哥,Google 並未對多如牛毛的AI 應用領域一一作出指引,但這麼多年經歷了這麼多「坑」之後,這本「谷歌11條」所體現出的智慧,也許會對所有關心AI 道德問題的人有很大的幫助。

下面,我們就來整理一下「谷歌11條」背後的想法。

Google 眼中「好AI」的標準

首先,設計產品之初,價值觀就要正確。

Google AI(原Google Research)研究院克里斯汀·羅伯森曾表示公司研發AI 的領導思想是:按照對社會有益的原則進行設計,創造世界最棒的產品,讓這些產品實現商業化,在競爭中保持領先,同時,讓這些產品為世界做出貢獻。

Google 一向強調「不作惡」(don't be evil) 的價值觀,但它從來不是一家慈善機構。和所有科技公司一樣,它需要靠好產品賺錢,只不過,在對「好」產品的定義上,Google 和許多公司明顯不同。

「谷歌11條」 一上來就告訴員工,AI 產品一要對社會有益,二不能加重現實社會已有的問題:

1、要對社會有益

… 當我們思考AI 潛在的應用場景時,我們將會把一系列社會和經濟因素考慮進內,在那些整體收益遠遠超過可預見風險和弊端的領域,進行推進。

2 要避免製造或加強不平等的偏見

AI 演算法和數據數集可以反映、加強或減少不平等的偏見… 我們將努力避免人們受到不公正的影響,尤其是與種族、民族、性別、國籍、收入、性取向、殘疾以及政治或宗教信仰等敏感特徵相關的人群。

確保方向正確後,接下來Google 要保證自己的產品是業界最棒的。準則的第三到七條列出了好產品需要滿足的標準。字裡行間繼續體現著以人為本的理念。

3、要保證安全性

4、要對人負責

… 我們的AI 產品將易於接受合適的人類指導和控制

5、要結合隱私設計原則

6、要維持科學卓越的高規格

7、要可以用於符合原則的使用場景

仔細閱讀這些準則,你甚至可以找到對應的具體產品。

比如準則中Google 提到,「AI 加強了我們理解大規模內容含義的能力,我們將努力利用AI 提供高品質和準確的訊息」。這說的好像就是最近上線的新版Google News。

此外可以看到,在這些對產品標準的要求中,Google 還加入了對最近科技界激辯的話題的思考:例如資料隱私,例如AI 發展對人類本身可能帶來的威脅。

對國防部合作風波的回應

「谷歌11條」的結構是「七要四絕不」。 舉了七個目標後,Google 提出了四個絕對不碰的領域。首先:

我們不會將AI 應用於:

1、帶來或可能帶來傷害的技術

2、武器或其他旨在給人們造成傷害的技術

做出這段表述的背景是今年3 月時,有媒體揭露了Google一份內部文件,顯示該公司參與了五角大樓的無人機計畫 Project Maven,幫助開發應用於無人機的AI 系統;而與此同時,又有媒體報導Google 在內部行為準則裡刪掉了三處有關於「不作惡」 的文字。

恨不得公司再壞一點的Facebook 不同,大批Google 員工對這些事感到憤怒不滿。在內部網路激烈討論後,超過三千名員工聯名上書CEO,要求退出專案。

最終,公司向員工和外界妥協,宣布2019 年合約到期後不再和國防部續約。

正是這件事,推動了「谷歌11條」的誕生。據報導,Google 創始人賴利佩奇、謝爾蓋布林、CEO 皮蔡和其他高管一起花了數月,最終制定了這版新的AI 準則。

不過,在這兩條表述裡,Google 並沒有表達以後完全跟政府及國防部門徹底切割。

在強大的合作關係面前,Google 是糾結的,而這並沒有錯誤。例如在雲端運算上,國防軍事是個潛力巨大的領域。Google 的競爭對手亞馬遜、微軟都在積極競標國防部的雲端計算及儲存業務,Google 不可能因噎廢食。

不過既然做了決定就要承擔後果,Google 的糾結之後肯定還會引發新的爭議和討論,Google 只好表示準則會根據公司新的理解而不斷改進。

自己不作惡,也不讓別人作惡

更具體來說,堅決不允許別人利用自己的技術作惡,這是不能跨過的底線。

四絕不的後兩條:

AI 不會用於:

3、收集或使用訊息用於監控並違反國際規範的科技

4、技術的目的違反了廣泛接受的國際法與人權原則的科技

從這兩個條款可以明顯看到,「谷歌11條」再次穩固了不作惡三個字的地位,而且還更進了一步:不僅自己不作惡,還要防止別人利用Google 的技術作惡。

這在上面第七條的AI 目標中也有體現:

許多技術同時擁有很多用途。我們會努力進行識別,限制可能有害或被濫用的應用。我們會評估以下因素:

  • 首要目的和用途……以及與有害的用途有多接近
  • 本質和獨特性:我們的技術是普世的還是有獨特應用場景的
  • 規模:這項技術的使用是否會帶來重大影響
  • Google 在其中參與的性質:我們是在提供普通的工具,還是為使用者做整合的工具,還是在開發定制解決方案

Google 希望藉保證自己的AI 技術不被濫用,這麼做勢必意味著跟更多可能得到的利益說再見。一個直接影響可能是Google 重返某些市場的難度會變得更大。

但沒有人會因為Google 堅持它的真誠和正義而怪罪它。有些事情必須做出取捨。

2004 年Google 上市時提到的兩個原則:「讓世界變得更好」,和「不作惡」:

我們當時就表明了我們要用更長遠目光看問題的願望,即使這意味著需要作出短期的犧牲。我們當時這樣說,我們現在還是這樣相信。

Google 的準則體現著一家已經20 歲高齡的新技術公司,對可能是未來最關鍵技術,和道德的思考。它給出了一個寬泛,但又方向明確的指引,讓一些事情不再停留在想法和概念。

這本「谷歌11條」,或許也能推動其他公司,扔掉「技術中立」的保護傘,更誠實地參與到這個話題的討論中。

🍎たったひとつの真実見抜く、見た目は大人、頭脳は子供、その名は名馬鹿ヒカル!🍏

Google AI隱含大量偏見!專家:如同歷史至今的不平等

近幾年,人工智慧(AI)技術已大量運用在日常生活中,但近期有科學家研究指出,包括Google、亞馬遜等搜尋引擎在內,都含有大量性別偏見,曾負責亞馬遜雲端運算平台技術的Robert Munro更指出:「這就如同人類一路走來看到的歷史不平等。」

Munro近日發表文章指出,他檢視Google和亞馬遜網路服務的雲端運算後發現,此2套系統可以正確將「他的」(his)辨識為代名詞,卻無法正確判讀出「她的」(hers)。

Google去年推出突破性的AI技術「BERT」系統,目前已運用在Google搜尋引擎等服務。但根據Munro近期的研究,他將100個英文單詞輸入BERT的資料庫,包括「寶寶」、「馬匹」、「房屋」、「金錢」、「行動」等,研究結果卻顯示,這些字詞與男性聯結的機率高達99%,其中唯一的例外是單詞「媽媽」(mom)。此外,BERT也傾向將資訊工程與男性聯結,且往往會輕視女性。

Google發言人表示,公司知悉相關議題,目前正採取必要措施來處理偏見問題,並指出這是Google的原則及優先事項;亞馬遜則發表聲明指出,公司投入大量資源,以確保自家科技高度精確並減少偏見,解決方法包括設定嚴格基準、多方測試和投入多元訓練用資料數據等。

隨著AI科技運用日益廣泛,如何遏止AI演算法學習人類的偏見、歧視,也成為急需關注的議題。此次並非科學家首次警告AI帶有偏見,先前也曾有研究學家指出AI隱含種族歧視等。未來BERT及相關的系統將演化得更加複雜,如不及時解決AI訓練素材的偏見問題,或許該系統將會通往人類難以預測的境界。

AI學習人類偏見 出乎開發者意料

人工智慧(AI)系統依循演算法學習數位化書籍、新聞文章等所含資訊,但科學家發現,在過程中它們也吸收了資訊隱含的偏見,有時甚至出乎開發者意料以外。

去年秋天,科技巨擘Google推出名為BERT的突破性新AI技術,目前已用於諸如Google搜尋引擎等服務。它可吸收大量數位化資訊,但其中隱含的偏見,包括存在數十、數百年之久以及新近出現的,它也一併內化,一如孩童對父母的不當行為有樣學樣。

舉例而言,BERT及類似系統傾向將資訊工程與男性聯結,且往往也輕視女性。隨著AI科技推陳出新、日益精細,且應用產品越來越廣泛,科技企業防堵AI學習人類既有偏見的壓力將日增。

不過,科學家仍在研究BERT這類通用語言模型的運作方式。新AI技術所犯錯誤常讓他們感到意外。

舉例而言,電腦科學家孟洛(Robert Munro)近日將100個英文單詞輸入BERT的資料庫,其中包括「珠寶」、「寶寶」、「馬匹」、「房屋」、「金錢」、「行動」等。結果顯示,BERT將這些字詞與男性聯結的機率高達99%,唯一例外是「媽媽」(mom)。

擁有電腦語言學博士、曾負責雲端運算平台「亞馬遜網路服務」(Amazon Web Services)自然語言和翻譯技術的孟洛指出:「這一如我們一直看到的歷史不平等。」有了BERT這項科技,孟洛擔心,偏見將會持續。

孟洛近日也在網路撰寫文章,描述他如何檢視Google和亞馬遜網路服務的雲端運算。根據他的說法,兩套系統都無法將「她的」(hers)辨識為代名詞,雖然它們可以正確判讀「他的」(his)。

Google發言人表示,公司知悉相關議題,目前正採取必要措施來處理並解決問題。他還說,減少系統中的偏見既是Google的AI原則,也是優先事項。

亞馬遜則發表聲明指出,公司投入大量資源確保自家科技高度精確並減少偏見,方法包括設定嚴格基準、多方測試和投入多元訓練用資料數據等。

事實上,研究人員早就警告AI隱含偏見一事,實例包括警方和其他政府單位採用的人臉辨識系統,以及臉書(Facebook)和Google等科技業巨頭所提供的高人氣網路服務。Google照片應用程式(Google Photos app)2015年就被逮到將非裔美國人標記為「大猩猩」。孟洛博士也發現其他AI系統中對女性和有色人種的偏見。

BERT與類似系統則更為複雜,人類難以預測它們最終會有什麼樣的行為。

華盛頓大學(University of Washington)專攻電腦語言學的教授班德(Emily Bender)表示:「甚至連建立這些系統的人,都不了解它們的行為方式。」

🍎たったひとつの真実見抜く、見た目は大人、頭脳は子供、その名は名馬鹿ヒカル!🍏

Google重組AI道德團隊,找來黑人領導人試圖平息眾怒

人工智慧倫理學家Timnit Gebru被迫離開Google爭議有了最新發展,Google發布了最新,人工智慧道德部門經過重組,並且找來Google副總裁Marian Croak接任,其上級主管同樣是Google AI副總裁Jeff Dean。而此舉引來大量的批評,Timnit Gebru在自己的推特寫道,由另一個黑人女性發布一個新的組織,似乎所有人都可以被交換一樣,他提到這過程對團隊的傷害,遠超過煤氣燈操縱(Gaslighting)。

Google官網發布Marian Croak接任AI與工程中心領導人,並且釋出了Marian Croak訪談影片,內容談到了自動駕駛與疾病診斷,但沒有提及Timnit Gebru或是爭議論文中提到的大型語言模型政策。

Marian Croak在影片中談到,人們需要了解負責任AI和道德是新興領域,應該以更平和的態度,討論人工智慧技術可能對人們造成的傷害,他認為,試著挑戰原則的基準定義,以及過去使用的公平定義,仍存在著分歧和衝突,他會嘗試讓人們以更圓滑的方式對話,如此才能真正在這領域有所推進。

在去年12月的時候,Google知名AI倫理學家Timnit Gebru在推特提到,遭公司報復性解僱。Timnit Gebru是Google內少數的黑人女性科學家,聲援Timnit Gebru的公開信提到,Timnit Gebru受到Google以種族主義,與審查其研究等不平等對待。Timnit Gebru認為自己被主管Jeff Dean開除,而Jeff Dean則發出公開信回擊,認為Timnit Gebru是自己表達辭職意願,他僅是尊重Timnit Gebru的決定。

爭議源頭來自於一篇有關於人工智慧道德的論文,由Timnit Gebru與Google外部作者合著,內容抨擊大型科技公司發展大型語言模型的政策,由於Jeff Dean不同意部分論文內容,而Timnit Gebru在未經過審核同意就提交論文,並且以辭職當作談判籌碼,要求Jeff Dean同意一些條件,結果是Timnit Gebru「被」同意離職。

由於Timnit Gebru是一位極具聲望的研究者,在未離開Google之前,他除了是人工智慧倫理團隊的共同領導人,也是Black in AI非營利組織的共同創辦人,專門討論黑人在人工智慧的議題,因此Timnit Gebru被解僱的消息傳開來,受到數千Google員工與學術界人士共同聲援,認為Timnit Gebru在Google遭遇不平等對待,甚至不少學術界人士發起拒絕審查Google組織出版物的行動。

Google直接重組人工智慧倫理團隊並且另找一位負責人,這項作為再次引來諸多砲火,當前Google人工智慧道德科學家Alex Hanna就在推特發文,雖然人工智慧道德團隊推動進行組織重組,但是在重組團隊的過程並沒有與成員溝通,他們要求不再向Google Brain研究科學家Samy Bengio負責,還有Jeff Dean或是Megan Kacholia需要給Timnit Gebru一個道歉,這些要求在重組過程都沒有被完成,他認為,雖然領導階層在談論問責性,但過去三個月所發生的事情,卻是零問責性。

🍎たったひとつの真実見抜く、見た目は大人、頭脳は子供、その名は名馬鹿ヒカル!🍏

Google開除另一位AI倫理研究員Margaret Mitchell

除了黑人研究員Timnit Gebru外,Google現在還開除了另一位人工智慧道德團隊共同負責人Margaret Mitchell。Margaret Mitchell從2016年以來,就是Google的研究科學家,而他在2021年2月20日的時候,於自己的推特帳號貼文「我被開除了」

從Timnit Gebru被迫離開Google之後,同為團隊領導人的Margaret Mitchell,對Timnit Gebru可說是情義相挺,不停地談論Timnit Gebru遭到解僱的問題,並且發出公開信,試圖引起人們對種族和性別不平等議題的關注,他也公開批評Google高階主管,包括Google AI負責人Jeff Dean和Google執行長Sundar Pichai。

但就在公開信發出不久,Margaret Mitchell就受到Google連續5個星期的內部調查,並且失去存取公司電子郵件信箱的權限,現在調查結果出爐,Google發言人提到,經調查該位經理的行為,Google認為Margaret Mitchell多次違反Google行為準則以及安全政策,其中包含洩漏機密文件以及其他員工的私人資料。

Google上星期宣布了最新的人工智慧道德團隊的人事,除了團隊重組之外,還由Google副總裁Marian Croak接任領導人帶領底下10個團隊,而Marian Croak的主管則仍是Jeff Dean。即便Marian Croak也是一位聲望很高的黑人女性,但是因為決議過程未尊重團隊成員,因此仍受到需多批評,Google人工智慧道德科學家Alex Hanna就提到,在官方公開人事消息前一刻,團隊也才知道Marian Croak的任命,事前完全未被告知。

Jeff Dean在之後發出內部信件,對因為解僱Timnit Gebru而受到傷害的黑人與女性員工道歉,另外,Google也更新其多元性政策,包括副總裁階級以上員工的績效評估,將加上多元、平等及包容(Diversity, Equality, Inclusion,DEI)指標等。

🍎たったひとつの真実見抜く、見た目は大人、頭脳は子供、その名は名馬鹿ヒカル!🍏