谷歌也一直是 AI 行業的領軍者,發表的論文橫跨自然語言處理、計算機視覺、強化學習等多個領域,為行業內貢獻了諸如 Transformer, Bert, PaLM 等諸多基礎模型與架構。
但 OpenAI 打破了游戲規則,不僅拿著 Transformer 開發出了 ChatGPT,還憑著初創公司的優勢,如受法律、輿論的影響更少,無需透露訓練數據、模型規模、架構等信息,甚至還挖走了不少谷歌等大廠的員工,打得谷歌是節節敗退。
面對不講武德的 OpenAI,谷歌也只能被動挨打。
據匿名人士提供的消息稱,今年 2 月,Google AI 的掌門人 Jeff Dean 在會議中表示:
Google would take advantage of its own AI discoveries, sharing papers only after the lab work had been turned into products
谷歌將利用自己在人工智能方面的成果,只有在實驗室成果轉化為產品后,才會共享論文。
轉向「防御狀態」的谷歌或許寄希望于把同類 AI 公司全都熬走,更好地保護自己的核心搜索業務及股價。
但 AI 如果少了這些大公司的開源精神,轉而走向壟斷,人工智能領域還能出現之前的發展奇跡嗎?
谷歌被偷家,只因「太負責」
對于谷歌這種數十億用戶體量的公司,即使是小規模的實驗也可能會影響到數百萬人,并遭受輿論的反噬,這也是谷歌遲遲不愿推出聊天機器人并堅守「負責任 AI」底線的原因。
2015 年,Google Photos 上線圖像分類功能,將一名黑人錯誤分類為 Gorillas(大猩猩),谷歌立刻陷入公關危機,迅速道歉并整改。
谷歌整改的措施就是把 Gorillas 標簽直接刪了,甚至還刪掉了貴賓犬(poodle),黑猩猩(chimpanzee),猴子(monkey)等類別。
結果就是圖像分類器不會再把黑人識別為猩猩,但也識別不了真正的猩猩了。
盡管多年來谷歌一直在投入大量資金開發人工智能技術,但受限于神經網絡的黑盒不可解釋性,谷歌也無法完全保證投產后的可控性,需要更長時間的安全性測試,也就失去了先發優勢。
今年 4 月,谷歌 CEO 劈柴哥(Sundar Pichai)在參加《60 分鐘》節目中仍然明確表示,人們需要對人工智能保持謹慎,它可能對社會造成很大的危害,比如偽造圖像和視頻等。
如果谷歌選擇「不那么負責」,勢必會引起更多監管機構、人工智能研究者和商界領袖的關注。
但 DeepMind 聯合創始人 Mustafa Suleyman 表示,其實并不是因為他們過于謹慎,而是因為他們不愿意破壞現有的收入流和商業模式,只有當存在真正的外部威脅時,他們才會開始覺醒。
而這個威脅,已經來了。
留給谷歌的時間不多了
自 2010 年起,谷歌就開始收購人工智能初創企業,并將相關技術逐步融入自家產品中。
2013 年,谷歌邀請深度學習先驅、圖靈獎得主 Hinton 加盟(剛離職);一年后,谷歌還以 6.25 億美元收購了初創公司 DeepMind
在被任命為谷歌首席執行官后不久,劈柴哥更是宣布谷歌將以「AI 優先」為基本策略,將人工智能技術整合到其所有產品中。
多年的深耕也讓谷歌的人工智能研究團隊取得了諸多突破性進展,但與此同時,一些規模較小的創業公司也在人工智能領域取得了一些成就。
OpenAI 成立的初衷是為了制衡大型科技公司對人工智能領域公司的收購壟斷,并且憑借小公司的優勢,OpenAI 受到的審查和監管更少,而且更有意愿快速將人工智能模型交付到普通用戶手中。
所以人工智能的軍備競賽就在這種沒有監管的情況下愈演愈烈,面對競爭,大型企業的「責任心」可能會逐漸減弱。
谷歌高層也不得不選擇 DeepMind 所擁護的「人工智能技術匹配」、「超越人類智能」等通用人工智能概念的前景。
今年 4 月 21 日,劈柴哥宣布把原由 Jeff Dean 運營的谷歌大腦和此前收購的 DeepMind 合并,交由 DeepMind 聯合創始人兼首席執行官 Demis Hassabis 負責,以加速谷歌在人工智能領域的進步。
Hassabis 表示,只需要幾年時間,AI 水平可能就會比大多數人工智能專家預測的更接近人類智能的水平。
谷歌進入「戰備狀態」
根據外媒對 11 名谷歌現任和前任員工的采訪,最近幾個月,谷歌已對旗下人工智能業務進行了全面改革,主要目標是迅速推出產品,降低向小用戶群推出實驗性人工智能工具的門檻,在公平性等領域開發一套新的評估指標和優先級。
劈柴哥強調,谷歌嘗試加快研發速度并不意味著偷工減料。
為了確保通用人工智能以負責任的方式發展,我們正在籌辦一個新部門以建立更有能力的系統、更安全且更負責任。
前谷歌大腦人工智能研究員 Brian Kihoon Lee 在今年 1 月大規模裁員潮中被解雇了,他將這種轉變描述為谷歌從「和平時期」向「戰爭時期」的轉變,一旦競爭變激烈,一切都會變。在戰時狀態,競爭對手的市場份額增長也很關鍵。
谷歌發言人 Brian Gabriel 表示:在 2018 年,谷歌建立了內部管理結構和全面的審查流程,到目前為止已經在各個產品領域進行了數百次審查。谷歌將繼續將該流程應用于面向外界的基于人工智能的技術,負責任的人工智能仍是公司的首要任務。
但決定人工智能產品何時準備上市的標準不斷變化,也引發了員工的不安情緒,比如谷歌在決定發布 Bard 后,調低了實驗性人工智能產品的測試分數標準,引起了內部員工的反對。
2023 年初,谷歌公布了由兩個人工智能團隊(Responsible Innovation 和 Responsible AI)圍繞 Bard 設定的約 20 項政策,員工普遍認為這些規定相當明確且完善。
也有員工認為這些標準制定的更像是給外界表演看的,不如公開訓練數據或是開源模型,用戶能夠更明確了解模型的能力。
發論文需審批
谷歌加速研發的決定對員工來說,喜憂參半。
喜的是,非科研崗位的員工們普遍持樂觀態度,認為該決策可以幫助谷歌重回上風。
但對研究人員來說,在發表相關人工智能研究成果之前需要獲得額外的批準,可能意味著研究人員將在快速發展的生成式人工智能領域錯失首發機會。
也有一些人擔心,谷歌可能會悄悄壓下有爭議的論文,比如 2020 年由谷歌的道德人工智能團隊領導,Timnit Gebru 和 Margaret Mitchell 共同撰寫的一項關于大型語言模型危害的研究。
過去一年間,許多頂尖的人工智能研究人員都被初創公司挖走了,部分原因在于谷歌對科研人員成果的不重視和過度審查。
一位前谷歌研究人員表示,獲得論文批準可能需要高級研究員反復進行嚴格審查。谷歌承諾了很多科研人員讓他們能夠繼續參與本領域更廣泛的研究話題,出版限制可能會讓迫使又一批研究人員出走。
AI 研發該降速?
谷歌加速發展之際,也有一些聽起來不是那么和諧的聲音,他們呼吁各大人工智能廠商放慢開發速度,并且認為這項技術的發展速度已經超出了發明者的預期。
深度學習先驅 Geoffrey Hinton 稱超級智能人工智能存在逃脫人類控制的危險,于是離開了谷歌。
消費者也逐漸開始了解大型語言模型的風險和局限性,比如人工智能傾向于捏造事實等,而 ChatGPT 上的小字免責聲明上并沒有說清楚它的局限性。
基于 ChatGPT 的下游應用暴露出了更多問題,例如斯坦福大學教授 Percy Liang 曾經展開過一項研究,新必應提供的引用大概只有 70% 是正確的。
5 月 4 日,白宮邀請了谷歌、OpenAI、微軟的首席執行官會面,商討公眾對 AI 技術的擔憂,以及如何對 AI 進行監管。
美國總統拜登在邀請函中明確表示,AI 公司必須確保產品的安全性,然后才能向公眾開放。

