最近一週科技圈發生兩件大事:OpenAI 開除又重新請回 Sam Altman,以及幣安認罪洗錢罪名,被罰款43 億美元(約 1300 億台幣),創辦人趙長鵬(CZ)下台。
美國財政部表示,幣安沒有通報超過 10 萬筆可疑交易,其中與駭客勒索、兒童性剝削、毒品交易與恐怖組織相關。
OpenAI 董事會則先是以「隱瞞董事會」為由,開除執行長 Sam Altman。中間歷經一段波折,包含微軟招募 Sam Altman 並承諾接收任何 OpenAI 跳槽員工。
無論如何,Sam Altman 在 11/22 回鍋,董事會重組。最重要的關鍵是員工的支持:700 位員工以跳槽至微軟為脅,聯署要求董事會總辭,顯示 Sam Altman 有多得民心。
雖然我還是很好奇,這起事件的導火線是什麼?Sam 到底「隱瞞」了什麼?以及,為什麼 Adam D'Angelo(Poe CEO)有明顯利益衝突,但還可以繼續留在董事會?
不過,本篇並沒有要詳細探討兩起事件的始末,而是想延伸聊聊兩件事的共通之處:信任。
信任是社會運作的本質
人類世界的運作,建立在信任之上,而非知識。
縱使 OpenAI 董事會有絕佳的理由開除 Sam,他們依舊沒有 Sam 累積多年的信任。各自都是領域專家,也有著崇高的地位,但無論是在大眾或員工眼裡,Sam Altman 都有更高的信任度,因而「看起來」像是反派,站在錯誤的一方。
同樣地,當我們在推特上看各種推測,看的也是「信任」。既然一切都沒有證據,我們看的不只是「這個說法有沒有道理」,而更是「發文的人是誰」。
我們相信彭博社的主持人 Emily Chang 發表關於 OpenAI 的內部消息,除了她個人累積的信任,也包含她代表、或說「借用」的彭博社信任。當 Paul Graham 發文挺 Sam Altman,許多人因此說「如果 Paul 這樣說,那想必⋯⋯」但這個判斷,也只是在描述 Paul 累積了很多信任,跟事件真相關聯不大。
建立、累積與保護信任,比任何事都重要。
矽谷有許多人喊 build something people want(做人們想要的東西),但似乎只有一部分人在 build something people trust(做人們信任的東西)。
於是我們有了像 Theranos 或 FTX 這樣的案例。人們確實很想要一滴血就能驗幾百種疾病,也很想要穩定又豐厚的年化報酬率。問題是,這些產品並非建立在穩固的信任基礎,最終泡泡破滅。
即使是「精實創業」與「fake it til you make it」的思維,也不能犧牲信任、追求速度。因為信任是商業的本質。
Lenny 的其中一期電子報〈Finding Product Market Fit〉中,轉述了 Sho Kuwamoto(Figma 產品副總裁)說在 Figma 早期的一個故事:
在某個週末,產品因為有 bug 運行不順利。共同創辦人 Dylan Field 大發飆:「這是紅色警戒。」Sho 說,什麼意思?我們還有其他事情要忙,產品也只是在 alpha 階段,不是正式版,有 bug 是正常的。
Dylan 說:「你沒搞懂,有客戶在依賴我們。」
Sho 當時說,他們根本還沒付錢,沒人知道有 Figma 這個產品存在,但好吧我們會修這個 bug。
不過後來,Sho 很欣賞這個心態,並說:許多創辦人不太在乎使用者,只想了解使用者到「知道下個功能要做什麼」的程度。但 Dylan 思考的是「信任」。
行銷時我們往往被指標和名詞迷惑,追求流量、轉換率、品牌心佔率,有時卻忽略了行銷的本質也是信任。做行銷的每個動作(網站文案、廣告貼文、客服回應)時,都應該問自己:這是增加了我們的信任,還是在消耗信任?
花好幾個月做官網,對新創來說或許是不智之舉,卻不代表不該花心思在官網上。新創該思考的,是如何用最簡單的設計,傳達出最大的信任感。即使簡陋,也要簡陋得很真誠。
拉遠來看,歷史上知識幾乎從來都不是力量,信任才是(或者說信仰、信心、信賴⋯⋯)。
最直覺的例子,是天主教打壓日心說,幾乎象徵著「信仰打壓知識」。
但即使是日心說,背後的驅動力也不是知識。哥白尼並不是為了探詢宇宙的秘密才提出日心說的,而是堅信「上帝必定會用最簡潔的方式創造宇宙」,才相信太陽是中心。可以說,日心說是奠基於堅定的宗教信仰。
由於假設軌道是正圓,日心說實際的準確率比托勒密的地心模型還差。這套理論在當時並不實用,儘管它比較接近真實。此時,知識幾乎毫無力量。
「先知是孤獨的」,只說明了先知花費心力取得知識,但沒有花費心力取得信任。
AI 的信任問題
目前 AI 面臨的問題,恰好也是信任問題。AI(或者說機器學習)發展至今比較成功的領域,大多是「可以快速取得低成本信任」或「不(太)需要信任」的領域。
「可以快速取得低成本信任」的例子之一,是推薦演算法。應用於電商時,信任已由電商網站建立並累積多年;應用於社群網站時,信任則建立在發文者本身。
由於可以「借用」信任,因此推薦演算法很快就滲透入我們的日常生活。
「不(太)需要信任」的例子,則可以解釋目前 AI 生成內容所擅長的領域。大型語言模型的商業應用,目前常見於文案撰寫、程式設計輔助和語言學習。
AI 可以一口氣生成許多文案範例,再由寫稿人自行彙整。而 AI 生成的程式碼即使有些 bug,工程師也可以手動調整。使用者暫時不期待 AI 自行完成所有工作,只要能省去從零開始的時間精力就好,因此所需的信任相當低。
語言學習則是比較有趣的案例。其成功的應用之一是「對話練習」:真人對話得鼓起勇氣,和老師建立信任;然而跟 AI 對話,反而不需要這層信任。AI 的「不真實」成為 feature,降低了開口說話的信任門檻。
不過,並非所有領域都不需要信任。
比如客服領域(你敢把憤怒的顧客交給 AI 嗎?)、醫療領域(你敢相信 AI 作出的診斷嗎?)或已經發展數十年的自動駕駛。今年加州批准 Waymo 和 Cruise 的無人計程車上路,然而每當撞死狗狗或捲入車禍,都會變成重大負面新聞。
這些並非只是能力問題,更多是信任問題:萬一出事了怎麼辦?
最後一個案例則是 a16z 強推的 AI 陪伴(AI Companion)。Sam Altman 曾在演說提到 AI 女友是 tarpit idea,意指「看似有強需求,因此吸引許多創業家進入;但實際上問題不能解決,讓人深陷其中,宛如在瀝青坑(tarpit)。」
AI 陪伴的問題並非技術,而是缺乏信任。恰巧與語言學習相反,由於人們清楚對面是 AI,便難以投入真正的情感;一旦投入情感,AI 又可能會因為「說錯話」而毀壞信任——畢竟即使是人類朋友,這種事也在所難免。
然而正因為 AI 不是真人,可以被任意捨棄,刪掉 app 就好。相反地對於真人,多少會有親情、友情或怕未來見面尷尬。這些「人情世故」,是維繫社會信任的基礎動力。
打個比方,面對狗、貓、羊等哺乳動物,人們往往將之擬人化,互動時像對待人一樣;但同樣是生命,不可愛的動物(如蛇、蟲、蛞蝓)或植物,便比較少人會以同等的方式對待。
這是因為後者距離人類「比較遠」,所以我們會假設對方並沒有和人類共通的情感,進而以更近於對待「物品」的方式與之互動。
那麼,運行在 GPU 上的大型語言模型,和人類有共通的情感嗎?更接近物品還是人類呢?這些科幻式問題的答案,將決定 AI 陪伴能否獲得信任。這裡倒不是想完全否定 AI 陪伴的可能性,但未來毫無疑問,將會是「率先取得信任的公司」得到優勢。
如何取得信任?
從網際網路到區塊鏈,新科技常常遇到信任問題。
網路崛起之時,很少人敢在網路上買東西。亞馬遜花了非常多年的時間,才終於建立這份信任,比如從很早就提供三十天退貨(雖然一開始規則寫得不清不楚)。
社群媒體更是一大突破。與匿名論壇、交友網站不同,Facebook 創立之初採取實名制,便建立了強健的信任。如今遭遇的政治廣告、詐騙和冒名問題,則是信任遭遇挑戰。
而雖然一般認為區塊鏈的問題是「沒有應用」,但是我認為,區塊鏈面臨最大的問題是缺乏信任。
對此,Coinbase 採取積極尋求合規的作法。共同創辦人與執行長 Brian Armstrong 在幣安認罪後發表了長文,強調 Coinbase 從創立之初就擁抱合規,取得執照並將品牌形象打造為「信任」。公開上市的目的,也是為了提高「信任」的標準(上市就需要公開財報,並受到監管):
自 2012 年 Coinbase 成立以來,我們一直堅持長遠眼光。我深知,為了成為經得起時間考驗的企業,我們必須遵守合規。我們取得了執照,組建了合規和法律團隊,並明確表達我們的品牌是建立在與客戶的信任和守規矩的基礎上。我們期望提高透明度,提升對信任的要求,因此在 2021 年我們成功上市。
這番聲明不只是為了應付風口或是踩踏對手。一直以來,Coinbase 確實犧牲了交易的自由度,花費成本與時間遵循法規,並嚴格審核上架的加密貨幣。他們的長期思考策略也在今天獲得回報:昔日的兩大對手幣安和 FTX 都遭受重創。
技術本身沒有好壞,只有適不適合。然而區塊鏈並非找不到適合的應用,而是找不到信任。當各式各樣的犯罪、騙局都與區塊鏈掛鉤,一般人恐怕會為之卻步。即使能做出順暢好用的產品,也要克服使用其他技術時,不需要克服的信任問題。
回到主題:AI 能如何取得信任?我有兩個想法。
合規是信任的一部分
首先是合規。許多人反對監管,認為技術應該加速,而非被做事慢吞吞的政府拖慢。然而或許與想像不同,大多數的人類其實是很守法的,也很厭惡不守法的人。逃避或試圖反對監管,往往只會減損信任。
正面的例子是上述的 Coinbase,多年合規於是逃過幣安和 FTX 的命運。反面的例子則是 Uber,由於早期管理層的好鬥屬性,爆出惡性競爭、商業間諜和高管性騷擾醜聞。不斷與現有法律對抗,不僅沒能獲勝,反而在一段時間裡,被貼上危險與不守法的品牌形象,如今正在慢慢彌補。
正在進行中的則是 Airbnb,在紐約市的法律戰敗下陣後,他們仍需要持續找尋合規,又不會破壞成長的方式。
因此,撇除信念問題(我個人相信 AI 全速發展有其益處),AI 盡力合規是重要的,理由並不是迫於無奈,而是為了取得信任。
而且 AI 很需要信任。技術發展過程中,除了讓生活更方便,也同時出現了 Deepfake、未經授權便拿資料訓練,以及用 AI 生成圖片參加繪畫與攝影競賽,種種破壞信任的事件。
這也導致許多人在使用 AI 時,會有隱私權的疑慮:我的資料會不會被拿去訓練?我生成的內容有沒有版權問題?這些是現在打造 AI 產品時就需要處理的。
借用信任
第二是本篇文章多次提到的「借用信任」。
對我而言,穩定幣是借用了法幣的信任,好降低人們使用加密貨幣的心理門檻(雖然很多關注區塊鏈的朋友或許不認同)。社群網站是收集了許多知名人士的信任,也因此推特、Threads 都爭取明星、運動員使用。
AI 如何借用信任,我還沒有好的答案(如果有答案我就自己做了)。但可以大膽推測,下一個 AI 的殺手級應用,會是成功借用某領域信任的產品。
其中一個我看好的方向是「音樂」。音樂產業的歷史,素來受到科技強烈影響。比如 1950 年代美國,由於廣播技術的出現,讓全國得以聽同一種音樂。在此之前,每個城市都有自己獨特的音樂風格。
這也催生了圍繞「偶像」而非「歌曲」的商業模式。1950 年代以前,音樂產業的商業模式是賣樂譜,而非賣特定版本的錄音。人們會買樂譜回家,目的是自己彈奏(當時人人家裡都有台鋼琴,如同現在人人家裡都有音響或耳機)。直到廣播網出現,才讓單一個人可以紅到全國。
今年 Google 發表論文 MusicLM、Meta 發表 AudioCraft,都是文字轉音樂的模型;上週(2023/11/16),Google 則展示 Music AI,讓人可以透過哼歌,轉換成任何樂器演奏。這將大幅降低音樂生產的成本、提高生產速度。
偶像身上已經累積了大量的信任,音樂產業是否能同時借助 AI 與信任的力量?目前圍繞偶像的商業模式,以及版權被緊握在少數唱片公司手上的狀態,是否會因此鬆動?是我很關注的部分。
馬斯克對 OpenAI 提起訴訟,因此公開了許多與 OpenAI 的往來信件。對此,The Verge 寫了一篇報導,揭露這些信件。而與去年出版的《馬斯克傳》對照,會發現一些有趣的事。以下是簡單的年表
近期 Gemini 發生了兩起事件,分別是發表了反人類宣言,以及對癌症病人進行沒有同理心的說教。對此我有 4 點延伸零碎想法。
最近在研究 Clarymind 的留存率,恰巧 YC 最近一支影片談 Cohort Retention,是我看過最清楚、最好懂也最實用的教學。Cohort Retention 是軟體服務重要的指標,意思是把用戶分群後,看不同群組的留存率。本文大部分內容來自這支影片,也加上一點點自己的經驗。