《AI 前哨》北京時(shí)間 6 月 1 日消息,ChatGPT 開(kāi)發(fā)商 OpenAI 周三發(fā)布了一份研究論文,闡述了如何解決人工智能 (AI)“幻覺(jué)”的新方法。AI 幻覺(jué)指的是聊天機(jī)器人用編造的信息進(jìn)行回應(yīng)。
ChatGPT 或谷歌“巴德”(Bard) 這樣的聊天機(jī)器人會(huì)完全捏造信息,表現(xiàn)得好像他們?cè)谔咸喜唤^地講事實(shí),這就是 AI 幻覺(jué)。舉個(gè)例子:在谷歌 2 月份為巴德拍攝的宣傳視頻中,這個(gè)聊天機(jī)器人對(duì)詹姆斯 韋伯太空望遠(yuǎn)鏡做出了不真實(shí)的陳述。最近,ChatGPT 在紐約聯(lián)邦法院的一份文件中引用了“虛假”案例,涉案的紐約律師可能面臨制裁。
OpenAI 研究人員在報(bào)告中稱(chēng):“即使是最先進(jìn)的模型也容易生成謊言,它們?cè)诓淮_定的時(shí)刻會(huì)表現(xiàn)出捏造事實(shí)的傾向。這些幻覺(jué)在需要多步驟推理的領(lǐng)域尤其是個(gè)問(wèn)題,因?yàn)橐粋(gè)邏輯錯(cuò)誤就足以破壞一個(gè)更大的解決方案!
為了對(duì)抗 AI 幻覺(jué),OpenAI 找到了一種潛在新策略:訓(xùn)練 AI 模型在推理出答案的每個(gè)正確步驟上給予自我獎(jiǎng)勵(lì),而不僅僅是等到推理出正確的最終結(jié)論時(shí)才給予獎(jiǎng)勵(lì)。研究人員表示,這種方法被稱(chēng)為“過(guò)程監(jiān)督”,與之相反的是“結(jié)果監(jiān)督”,這可能會(huì)訓(xùn)練出更好的可解釋 AI,因?yàn)檫@種策略鼓勵(lì)模型按照更類(lèi)似人類(lèi)的“思考”方式進(jìn)行推理。
“檢測(cè)和減輕一個(gè)模型的邏輯錯(cuò)誤或幻覺(jué),是構(gòu)建一致性通用人工智能 (AI) 的關(guān)鍵步驟!監(jiān)penAI 數(shù)學(xué)論文生成器 (mathgen) 研究員卡爾 科布 (Karl Cobbe) 在接受采訪時(shí)表示。他指出,盡管 OpenAI 并非發(fā)明了過(guò)程監(jiān)督方法,但該公司正在推動(dòng)其發(fā)展!斑@項(xiàng)研究的動(dòng)機(jī)是解決幻覺(jué)問(wèn)題,以使模型在解決具有挑戰(zhàn)性的推理問(wèn)題方面能力更強(qiáng)!
科布說(shuō),OpenAI 已經(jīng)發(fā)布了一個(gè)附帶的數(shù)據(jù)集,其中包含 80 萬(wàn)個(gè)人類(lèi)標(biāo)注,它們用于訓(xùn)練研究論文中提到的模型。鳳凰網(wǎng)科技《AI 前哨》對(duì)此將持續(xù)關(guān)注。