一群AI科學家不想創業,卻為了信任創立了巨頭Anthropic?

一群AI科學家不想創業,卻為了信任創立了巨頭Anthropic?

「沒有人想要創辦一家公司,我們只覺得這是我們的責任。」當Anthropic的共同創辦人Dario Amodei這樣描述公司的誕生時,他揭示了一個與矽谷常見創業故事截然不同的起點——一群科學家、研究者和工程師,不是為了商業野心,而是出於使命感走到一起,希望確保人工智慧的發展朝著安全且有益的方向前進。

在這場罕見的坦誠對談中,包括Dario Amodei、Daniela Amodei、Jared Kaplan、Tom Brown和Jack Clark等Anthropic核心創辦團隊分享了他們的旅程:從早期在Google和OpenAI的合作,到他們如何親眼見證AI技術的爆發性發展,以及為何他們選擇冒險創立一家以安全為核心的AI公司,最終如何開創了一種平衡安全與商業的新模式。

偶然聚集的天才團隊

Anthropic的創辦團隊並非偶然組合。多數成員早在十年前就已相識,他們的交集始於Google Brain及後來的OpenAI。Chris Olah回憶起他19歲時首次與Dario和Jared見面的情景,而Jack Clark則是作為一名科技記者在2015年試圖採訪Dario,但Google公關表示他必須先閱讀Dario的所有研究論文才能進行採訪。

Jack Clark

這段歷史揭示了一個重要事實:Anthropic的創辦人們在成立公司前就已建立了深厚的專業關係和信任。Daniela Amodei強調:「我認為我們最大的戰略優勢是這個團隊的信任程度...這在其他創業公司中是極其罕見的。」

Daniela Amodei

團隊成員各自帶著不同專長加入:Tom Brown從工程角度貢獻於AI安全;Jack Clark從新聞背景轉向研究;Jared Kaplan放棄了物理學教授的職位;Daniela則帶來了組織管理的技能。這種多元背景為公司帶來了獨特視角,也為解決複雜的AI安全問題奠定了基礎。

從懷疑到確信:AI發展的轉捩點

「當時在OpenAI有擴展法則的研究,只是讓模型變得更大,開始感覺這是有效的,然後它詭異地在多個不同項目上持續有效。」Tom Brown如此描述他們在OpenAI時期的重要發現。這種「詭異地有效」的現象將團隊聚集在一起,一同開發了GPT-2和GPT-3等里程碑式模型。

Tom Brown

Jack Clark回憶起一個關鍵時刻,當他在英國某機場試用GPT-2生成假新聞文章,並給Dario發訊息說:「這東西真的有效,可能會產生巨大的政策影響。」這種技術的突破讓團隊認識到AI的潛力和風險。

團隊對語言模型特別感興趣的原因不僅是其能力,還有其與安全的密切關聯。Jack解釋道:「當時有一種觀念認為AI會變得非常強大,但可能不理解人類價值觀,甚至無法與我們溝通。我認為我們都對語言模型感到興奮,因為它們能保證AI系統必須理解人類的隱含知識。」

Dario補充說,他們研發的「來自人類反饋的強化學習」(RLHF)技術是與語言模型擴展密不可分的:「擴展這些模型的全部原因是,模型還不夠聰明,無法在上面進行RLHF。這就是安全和模型擴展相互交織的方式,我們至今仍然相信這一點。」

離開OpenAI:一個艱難的決定

「這是一個非常困難的決定,」Chris Olah談到離開OpenAI時說道,「我不想離開,我覺得這對世界來說不一定是好事,讓更多AI實驗室存在。」他一開始甚至主張應該創立一個非營利組織,專注於安全研究。

Chris Olah

然而,隨著時間推移,團隊發現在OpenAI的環境中難以繼續貫徹他們對AI安全的承諾。如Dario所言:「這是某種程度上的務實態度,直面限制,並誠實地思考這些限制對實現使命的影響。」

2020年,隨著GPT-3的發布,團隊看到了AI能力的顯著躍升,也意識到時間緊迫。Jack描述道:「我們可以在2020年就已經看到未來的情況,如果我們不盡快一起採取行動,就會失去改變環境的能力。」

從理論到實踐:AI安全的演變

Anthropic的安全理念可以追溯到2016年Dario和Chris在Google發表的「AI安全的具體問題」論文。「那時AI安全通常被討論得非常深奧、抽象。我們能否將它接地氣,與當時正在進行的機器學習研究相結合?」Dario回憶當時的思考。

Chris Olah補充道,這實際上是一個「政治工程」,目標是匯集一系列人們認為合理的問題,並聚集來自不同機構的可信作者。「我記得花了很長時間與Google Brain的20位不同研究人員交談,以建立對發表這篇論文的支持。」

這種策略性方法奏效了。雖然從所強調的問題來看,論文可能「保存得不太好」,但從建立共識的角度來看,這是「一個相當重要的時刻」——確認AI安全是真實存在且值得認真對待的。

創辦團隊提到,AI研究受到「AI寒冬」的心理影響,研究人員對於提出雄心勃勃的想法或願景感到不安。Jared Kaplan解釋:「為了關注安全,你必須相信AI系統可能真的強大而有用,但我認為當時存在著對雄心的某種禁忌。」

Jared Kaplan

負責任擴展政策:安全的制度化

Anthropic最具代表性的安全創新是其負責任擴展政策(RSP)。Dario解釋RSP的起源:「我和Paul Christiano在2022年底首次討論它。最初是想在解決某些安全問題之前,在特定點限制擴展。」

這個政策隨後演變為一個分級系統,要求隨著模型能力的提升,採取越來越嚴格的安全和安保措施。團隊希望這能成為行業標準,而非單一公司的政策。

RSP已發展成為Anthropic的核心文件,Jared將其比作「美國對待憲法的方式」。Jack補充:「RSP是我們的神聖文件。值得進行大量迭代以確保它正確。」

RSP不僅是理論上的指南,還深刻影響了公司的日常運作。Daniela指出:「我思考如何建立一個人們想要參與的系統。如果RSP是公司每個人都能走動並告訴你的東西,那就好多了。」

RSP還通過促進統一發揮作用。Dario解釋:「如果組織的任何部分與我們的安全價值觀不一致,就會通過RSP顯現出來。RSP將阻止他們做想做的事。」這確保安全不只是口號,而是產品開發過程的核心要求。

將安全政策付諸實踐需要大量評估工作。當被問及RSP如何在日常工作中體現時,Chris立即回答:「評估,評估,評估。所有人都在進行評估。」這些評估工作的目標是確定模型能力是否已經提升到可能變得危險的地步。

「向上競爭」的商業模式

「這是對競爭向上的賭注。」Jack Clark如此形容Anthropic的策略。他解釋道,這並非純粹的樂觀主義,「事情可能出錯,但我們都一致認為『這是我們正在下的賭注』。」

這個賭注建立在一個核心假設上:如果一家公司能證明安全與競爭力可以共存,市場機制將推動其他公司效仿。正如Dario所說:「市場是務實的,Anthropic作為公司越成功,人們就越有動力複製使我們成功的事物。如果我們的成功與我們實際做的安全工作緊密相連,這就會在產業中創造一種引力。」

團隊經常使用「座位安全帶」作為比喻,來描述他們對產業影響的願景。就像汽車安全帶最初由一家公司開發,但最終被整個行業採用一樣,他們希望自己的安全創新能成為行業標準。

「確保每個人都能安全地造座位安全帶,讓其他人複製它們。這很好。」Jack如此總結。這種「出口安全帶」的心態已經取得了實際成效。Dario提到:「在我們推出RSP幾個月後,三家最知名的AI公司都有了自己的版本。」

Anthropic團隊發現,安全不僅是道德責任,還能帶來直接的市場優勢。Daniela指出:「客戶也真的關心安全。客戶不想要會產生幻覺的模型,也不希望模型易於被破解。他們想要既有幫助又無害的模型。」

「我們在客戶通話中經常聽到的是,『我們選擇Claude是因為我們知道它更安全。』」這表明安全已成為Anthropic的市場差異化因素,對競爭對手產生壓力,形成一個良性循環。

統一的企業文化

Anthropic的另一個關鍵成功因素是其獨特的企業文化,強調各部門的統一目標與合作。Dario強調:「團結非常重要。產品團隊、研究團隊、信任與安全團隊、市場團隊、政策團隊...他們都在為公司的同一個目標、同一個使命努力。」

他進一步解釋:「當不同部門認為他們在嘗試達成不同目標,認為公司關注的是不同事物,或者認為公司其他部門在嘗試破壞他們正在做的事情時,會產生功能障礙。」

Daniela補充道,Anthropic的特別之處在於不同團隊之間的相互尊重和理解:「看Mike Krieger(產品負責人)為安全原因辯護產品不應該發布,同時看Vinay(業務主管)說『我們必須為業務做正確的事,如何將其推向終點線?』這種跨部門的相互理解是非常罕見的。」

Mike Krieger

團隊強調,成功的關鍵在於坦誠面對權衡取捨,而非追求完美。Jack表示:「這個世界遠非完美,只有權衡。你做的一切都會是次優的。」Dario補充道:「一個功能性的世界是當你能夠向每個人傳達『我們一起面對這些權衡』的理念。」

揭開黑盒子:技術未來的願景

當被問及未來工作時,Chris表達了對解釋性AI的熱情:「我認為神經網路非常美麗,其中有許多我們看不到的美。我們把它們當作黑盒子,對內部結構不特別感興趣,但當你開始看裡面,它們充滿了令人驚歎的美麗結構。」

他將神經網路比作生物進化創造的生物:「如果人們看待生物學時認為『進化很無聊,只是一個簡單的東西運行很長時間,然後它創造動物』,而實際上,進化產生的每一個動物充滿了令人難以置信的複雜性和結構。」

Chris期待十年後走進書店,能買到關於「神經網路解釋性」或「神經網路生物學」的教科書,探索其中「奇妙的事物」。Dario甚至半開玩笑地預測Chris可能因此獲得諾貝爾醫學獎。

團隊對AI應用於解決人類核心問題充滿熱情。Daniela談到:「當我想像三年或五年後的未來,Claude可能真正解決我們作為人類面臨的許多基本問題...即使只從健康角度來看,這對我來說非常令人興奮。」

Dario提出了三個他認為將發生重大突破的領域:

  1. 解釋性AI:不僅是安全的關鍵,也包含關於智慧優化問題和人腦工作方式的洞見。
  2. AI在生物學中的應用:「生物學是一個非常困難的問題...我們應該嘗試建造能幫助我們創造百個AlphaFold的東西。」他預測這一領域的科學共識正在破裂。
  3. AI增強民主:雖然有人擔心AI如果構建不當可能成為獨裁的工具,但Dario思考「AI如何成為自由和自決的工具?」

Tom提到對程式碼輔助的興奮,他最近在一次演講中發現95%的聽眾已經在使用Claude編寫程式碼,「這與四個月前完全不同。」

為AI設立新標準

Anthropic的創辦故事不僅講述了一家公司的誕生,更展示了一種可能重新定義整個AI行業發展方式的新範式。通過將安全置於核心位置,同時保持商業競爭力,他們正在挑戰「安全與創新相互衝突」的傳統觀念。

正如Dario所言:「世界需要的,不是關注單一公司或產業,而是成功地從這個技術不存在,到這個技術以非常強大的方式存在,而社會已經成功管理它的過渡。我認為這只會發生在如果你在單一公司層面,最終在產業層面,真正面對這些權衡。你必須找到一種方式,實際上具有競爭力,在某些情況下引領產業,同時設法安全地做事。如果你能做到這一點,你施加的引力是如此之大。」

當政策制定者、企業領導者和研究人員思考如何平衡創新與責任時,Anthropic的經驗提供了一個有價值的參考:安全不僅僅是道德責任,也可以成為商業優勢;技術不僅僅是為了技術本身,而是為了創造更美好的世界。

在AI即將重塑我們社會的時代,這群不情願的創業者的旅程或許正是我們所需要的楷模——以使命為導向,以安全為核心,以影響為目標。正如Jack所言:「我們不是終結者,我們要建立積極的東西。」這種對技術的平衡視角,或許正是AI安全走向未來的關鍵。