眼看 AI 起高樓、眼看它樓塌了?
就在昨天早上,一封公開信刷屏了差評君的朋友圈,著名安全機構生命未來研究所(Future of Life Institute,FLI)呼吁全球所有研究機構暫停訓練比 GPT-4 更強的 AI.
至少六個月。
(資料圖)
并且要在這六個月中來制訂和 AI 相關的安全協議,其中就包括如何監管 AI 輸出的內容,還有如何把 AI 創造出的內容和真實的內容區分開來。
咱別看這個研究所名字中二感滿滿,但在上面留下名字的,個個都是行業里的頂尖大牛。
圖靈獎得主約書亞·本吉奧、蘋果聯合創始人史蒂夫·沃茲尼亞克、《人類簡史》的作者尤瓦爾·赫拉利、以及什么地方都會刷一腳存在感的埃隆馬斯克。
可以說是“滿級人類閃耀時”了。
雖然,關于這次簽名事件的準確性沒有那么高,也有些人在自己不之情的情況下”被簽名“ 了,比如一開始 OpenAI CEO 奧特曼的簽名也在上面(我殺我自己?)
再比上面還有急速追殺的主角John Wick
但不管怎么說,可以感到大家都緊張起來了。
在信中,生命未來研究所提了四個問題:
我們一定要讓機器用宣傳和謊言充斥我們的信息渠道嗎?
我們一定要把所有工作都自動化嗎?包括哪些人工完全可以做得令人滿意的工作嗎 ?
我們一定要發展最終可能超過我們、超越我們、并取代我們的非人類思維嗎?
我們一定要冒險失去對我們文明的控制嗎?
講道理,這些問題在過去幾十年里一直是科幻小說中流行的題材。
但是可能誰也想不到,隨著去年年底 OpenAI 一聲槍響。
這些難題真真切切的被搬到了我們面前,變成了我們可能需要立刻面對的元素。
前幾天,有人在網上發布了一組圖片,記錄了 2001 年發生在美國西部小鎮卡斯卡迪亞上的了一場 9.1 級的地震之后的景象。
略帶模糊的鏡頭記錄下了當時哭喊的民眾
被摧毀的建筑和房屋
甚至還有當時的美國總統小布什訪問災區的合影。
無論是破損的城市,街道上大家的穿著,都在告訴觀眾這是一組來自 2001 年的照片。
不那么清晰的畫質反而給大家一種“路人隨手拍”的感覺,讓照片的真實性再上了一個臺階。
但唯一的問題是,根本沒有這場大地震,卡斯卡迪亞上一次有記錄的災難,是在 1700年。
沒錯,這組照片就是用 Midjounrney 來生成的。
比起前段時間流行的“賽博 COS”,明暗對比更強烈,更擅長描述場景關系的 Midjourney 用來制作“虛假歷史”明顯更加得心應手了。
也更容易騙到大家的眼睛。
前幾天流行的“川普被捕”或者是“教皇穿羽絨服”,都是出于 Midjourney 的手筆。
圖片來源@谷大白話
說實話,差評君看到這個照片的第一瞬間,還真覺得有點懵,畢竟做為解放神學出身的教皇,方濟各穿個羽絨服也很正常對吧。
但是,這些圖片用來圖一樂倒是還好,一旦用來深究,那事情可能就大條了。
萬一下回,這項技術被用來詐騙呢?
和前些年流行過的 DeepFake 換臉不同,如今的 AI 作圖不需要特別好的顯卡,更不需要很長的時間去調試,對 Midjourney 來說,只要坐在瀏覽器前敲敲鍵盤就行。
當 AI 讓圖像造假的成本足夠低廉之后,咱又要花多少時間去分辨一張圖是不是 AI 畫的?
比如川普返鄉
可能生成一張假的圖片需要 10秒,但咱們想要看出來是這張圖是不是 AI 畫的,可能少說得要花個半分鐘。。。
不是每個人都有那么多精力能分辨 AI 的,只要有 1%的人認不出來上當受騙,就可以說是一本萬利的生意了好吧。
以往我們說耳聽為虛,眼見為實,然而現在,眼見也不再為真。
過去幾十年來人類習以為常的秘密,已經悄悄被 AI 解構成了一堆的線性矩陣。
在排列組合中,瞞天過海了人類。
而圖片生成還只是 AIGC (人工智能技術來生成內容)中的一部分。
這次被大佬們試圖聯名叫停的“巨型 AI”更是重量級,對標的產品自然是出盡風頭的 ChatGPT 。
這玩意有多離譜,咱們也寫文章聊過很多,今天就不再做贅述。
前段時間還生成了一段杭州取消限行的文案,騙過了不少人。
實際上,這類大語言模型并不是沒有監管,從它們出生的那刻開始,監管就如影隨形了。
上個月 OpenAI 在發布 GPT-4 的時候就提到,他們早在 22 年 8 月就完成了 GPT-4 的開發。
但是之后花了六個月來搞安全問題,為的就是不讓AI“亂說話”。
GPT-4 經過拷打之后胡言亂語的水平大幅度下降:
但問題是,現在的 AI 和過去那些一步步執行編譯的程序不一樣,這 AI 有一個算一個,全是黑箱。
不像過去那些程序,要是出了問題,程序員還可以進去打斷點,一個環節一個環節的調試 Bug 來把問題給搞清楚,哪一個環節有問題,針對性的改一下就好了。
但現在以 Chatgpt 為首的大模型 AI 就好像一個黑色的紙箱子,你只知道給它喂蘋果,它能還你一個橘子,而中間發生了什么事情一概不知。
那萬一這箱子要是出了問題,那咋辦嘛?只能重新買一個黑箱子了。
ChatGPT 就像一盒巧克力,在它輸出完成之前,沒有人知道它嘴巴里會蹦出什么字來。
李彥宏也提到:“生成式 AI 每次給出的答案不一定一樣,會帶來不確定性”。
這個生成到底有多不靠譜呢?差評君講個剛剛遇到的事兒:
前幾天不是索尼微軟任天堂、育碧和 D 社都說要退出 E3 展會么,我就有點好奇 E3 展會租金到底要多少錢?
先是在知乎上找到了一個回答,答主表示自己查到在 06 年時 E3 的租金就要 500萬美元以上。
額。。。06 年,500萬?這個數據好像有一些不靠譜,于是我又去用 NewBing 問了一下:
也給出了類似的回答。
有數據有鏈接,看起來是有理有據。
但問題是當我點開這個鏈接的時候發現。。。IGN 的文章里面根本沒有提到租金 500 萬這個數字
合著你是直接把之前的知乎文章翻譯了一遍,然后又給我編了一篇英文文章來訛我啊。。。
它順應了我們的猜測給了一個謠言,要不是我多心看了一眼,可能真的給他糊弄過去了。
真就是睜眼說瞎話大師。
而除了這個 title 以外, AI 還是桀驁不羈的漏洞尋找大師,往往能在我們訓練它的過程中表演一手出乎意料。
在人工智能領域,有個非常經典的理論叫做“對齊問題”。
意思是AI在做的事情和我們想要的結果之間沒有對齊,命令的傳遞出現了偏差。
就比如前兩年那只寧愿一頭撞死的賽博狼。
發現抓半天羊還會不斷扣分,那還不如一頭撞死自己分還比較高。
狼抓羊這么簡單的程序都會出現沒法對齊的問題,那更大模型的人工智能就更難說了。
實際上,缺乏“對齊”的 AI,還可能會形成社會中一些錯誤印象的“放大器”。
就拿性別歧視舉個例子,早些年亞馬遜引入了一個人工智能,來給求職者的簡歷打分。
結果過了幾年回頭一看,在程序制定者啥也沒做的情況下,性別歧視就很順滑的出現了,男性簡歷的通過率比女性高了不少。
甚至就算簡歷上面沒有明確寫出性別,程序還會通過一些細枝末節的地方來確定:比如是否畢業于女子大學,是否是“女子 XX 社”社團社長。
這自然不是亞馬遜在招聘時希望看到的,也絕對不是它們在設計 AI 時給它下的命令。
但是 AI 在訓練的結果中很自然的“沒有對齊”。
而且不光早些年的人工智能,最新的 ChatGPT 也依舊會有這些問題。
比如寧可讓百萬人失去生命也不愿意說一句種族歧視的話語。
再比如不愿意寫一首詩歌歌頌川普,但是可以贊揚拜登。。。
這些都是很明顯的政治傾向,我愿意相信 OpenAI 在研發 ChatGPT 的時候并不希望它學會這些,不然他們也沒有必要在 GPT-4 上花那么多時間用于自我審查。
但我們一不留神, AI 可能就偷偷的跑偏。
去學習偏見、歧視這些我們不希望存在,但是又客觀隱藏在社會關系里的性別歧視和政治傾向。
差評君也和清華大學交叉信息研究院的于洋教授聊過這個問題,探究到底是 AI 的哪里出了問題。
于教授的回答是:“這既是訓練數據集的問題,也是模型架構的問題,也是訓練方式的問題,還涉及到使用的問題——比如誘導 AI 犯錯的攻擊式使用。”
——對,就是全有問題。
現在的 AI 能做的還有限,就算沒對齊,捅出了簍子,可能還在我們能控制的范圍里。
但如果在這樣狂飆下去,那可就說不定了,就像那個知名的“曲別針假說”。
說不定未來哪一天, AI 會認為人類都是阻撓它生產曲別針的阻礙,把大家都給噶了?
人類有和自然相處成百上千年下來的道德約束,我們知道什么能做,什么不能做。
而目前,人工智能學不會這些。
或許,這才是這次數千 AI 大佬發出聯名信的原因。
監管必須要有,但是監管、法規不是一日而成。
AI算法突破起來毫無阻礙,連我們這種外行人都知道,AI帶來的技術爆發已經箭在弦上。去年啥情況,今年啥情況,稱之為突飛猛進不為過。
隨著AI算法的日益完善,下一步沒準就要自我進化了,它能成長到什么地步我們很難說。
我們有可能只能跟著 AI 在屁股后面追,但是現在不知道還有沒有我們一直在后面追的空間。
也許下一步只能用 AI 來監管 AI。
今天的聯名信或許是給人類敲響了一記警鐘。
但可惜的是,在差評君看來,這樣一紙的 “ 聯名信 ” 絕對停不下 AI 領域研發的腳步。
撰文:小陳編輯:江江 & 面線 & 結界封面:萱萱
圖片、資料來源:
https://openai.com/research/gpt-4
Red Teaming Improved GPT-4. Violet Teaming Goes Even Further
ChatGPT Is a Blurry JPEG of the Web —— Ted Chiang
關鍵詞: