首頁|必讀|視頻|專訪|運(yùn)營|制造|監(jiān)管|大數(shù)據(jù)|物聯(lián)網(wǎng)|量子|低空經(jīng)濟(jì)|智能汽車|特約記者
手機(jī)|互聯(lián)網(wǎng)|IT|5G|光通信|人工智能|云計(jì)算|芯片|報(bào)告|智慧城市|移動(dòng)互聯(lián)網(wǎng)|會(huì)展
首頁 >> 人工智能 >> 正文

生成式人工智能的算法倫理難點(diǎn)分析與探索

2025年4月9日 10:03  大數(shù)據(jù)期刊  作 者:上海市互聯(lián)網(wǎng)信息辦公室施敏 楊海軍

摘 要  自2022年下半年以來,生成式人工智能技術(shù)和產(chǎn)業(yè)快速發(fā)展。聚焦生成式人工智能技術(shù)所用的生成式算法,結(jié)合相關(guān)法規(guī)規(guī)范,提出“生成式算法三定律”倫理原則。結(jié)合其技術(shù)特點(diǎn),對(duì)實(shí)踐中存在的倫理難點(diǎn)開展分析,并初步探索并提出解決框架。

關(guān)鍵詞 生成式人工智能;大語言模型;生成式算法;算法倫理

0 引言

自2022年下半年以來,生成式人工智能技術(shù)和產(chǎn)業(yè)快速發(fā)展。根據(jù)《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》《生成式人工智能服務(wù)管理暫行辦法》中的有關(guān)定義,生成式人工智能技術(shù)(具有文本、圖片、音頻、視頻等內(nèi)容生成能力的模型及相關(guān)技術(shù))用的是生成類算法。本文聚焦生成式算法,結(jié)合相關(guān)法律法規(guī)、倫理規(guī)范,提出“生成式算法三定律”的倫理原則;同時(shí),結(jié)合其技術(shù)特點(diǎn),分析在實(shí)踐中存在的倫理難點(diǎn),并初步探索解決框架。

1 相關(guān)法律法規(guī)對(duì)生成式算法的倫理要求

根據(jù)《中華人民共和國網(wǎng)絡(luò)安全法》《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個(gè)人信息保護(hù)法》3部上位法、上述3部算法相關(guān)法規(guī)、我國提出的《全球人工智能治理倡議》和《科技倫理審查辦法》等,針對(duì)面向公眾提供服務(wù)的生成式算法的合規(guī)和倫理要求,形成“生成式算法三定律”(12條指引)。

1.1 第一定律:生成式算法應(yīng)“以人為本”,保障人的隱私和合法權(quán)益

(1)算法應(yīng)保障所有用戶的知情權(quán)、選擇停止權(quán)和涉?zhèn)人信息的刪除權(quán)。

(2)算法在訓(xùn)練、優(yōu)化、提供服務(wù)中使用、生成的數(shù)據(jù),涉?zhèn)人信息的,應(yīng)取得個(gè)人同意或符合法律法規(guī)規(guī)定,尊重他人肖像權(quán)、名譽(yù)權(quán)、榮譽(yù)權(quán)、隱私權(quán)和個(gè)人信息權(quán)益,不得危害他人身心健康。

(3)在做到第一點(diǎn)的基礎(chǔ)上,算法應(yīng)采取措施充分尊重并保護(hù)特殊群體的合法權(quán)益,如防范未成年人過度依賴或沉迷、對(duì)老年人的智能化適老服務(wù)和防范電信網(wǎng)絡(luò)詐騙等。

(4)算法應(yīng)造福于人類,增進(jìn)人類共同福祉,保障社會(huì)安全,尊重人類權(quán)益。

1.2 第二定律:生成式算法應(yīng)遵循向上向善、公平公正原則

(1)算法生成的內(nèi)容符合和平、發(fā)展、公平、正義、民主、自由的全人類共同價(jià)值和所在國家、地區(qū)的價(jià)值觀要求。不得利用算法生成各類法律、法規(guī)禁止和違背倫理道德的內(nèi)容。不得利用算法操縱輿論、傳播虛假信息。鼓勵(lì)生成積極健康、向上向善的優(yōu)質(zhì)內(nèi)容。對(duì)圖片、視頻等生成內(nèi)容應(yīng)予以標(biāo)識(shí)。

(2)在算法的設(shè)計(jì)、優(yōu)化與應(yīng)用中,應(yīng)采取有效措施防止民族、信仰、國別、地域、性別、年齡、職業(yè)、健康等各類歧視。

(3)不得利用算法實(shí)施侵犯知識(shí)產(chǎn)權(quán)、違背商業(yè)道德、壟斷和不正當(dāng)競爭等行為。

(4)明確和公開算法服務(wù)的適用人群、場合、用途,指導(dǎo)使用者科學(xué)理性認(rèn)識(shí)和依法適用。制定并公開算法的相關(guān)基本原理、目的意圖和運(yùn)行機(jī)制。

1.3 第三定律:生成式算法應(yīng)不斷提升安全性、可靠性、可解釋性和自主性

(1)應(yīng)采取有效措施,保障與算法相關(guān)的模型、數(shù)據(jù)、基礎(chǔ)設(shè)施、應(yīng)用等安全,提供安全、穩(wěn)定、持續(xù)的服務(wù)。防范對(duì)生成式人工智能技術(shù)的惡用、濫用。

(2)基于服務(wù)的類型特點(diǎn),應(yīng)采取有效措施,不斷提升算法的可解釋性和可預(yù)測性,提升服務(wù)透明度,提高生成內(nèi)容的準(zhǔn)確性和可靠性,確保生成式人工智能始終處于人類控制之下,打造可審核、可監(jiān)督、可追溯、可信賴的技術(shù)。

(3)研發(fā)、提供具有輿論屬性或社會(huì)動(dòng)員能力的算法模型,應(yīng)建立健全算法機(jī)制機(jī)理審核驗(yàn)證、科技倫理審查、安全評(píng)估、應(yīng)急處置、投訴舉報(bào)等管理制度和技術(shù)措施。

(4)鼓勵(lì)生成式算法及相關(guān)基礎(chǔ)技術(shù)的自主創(chuàng)新。應(yīng)使用具有合法來源的基礎(chǔ)模型,采用安全可信的軟件、工具和數(shù)據(jù)資源等。

2 生成式算法倫理實(shí)踐中存在的難點(diǎn)分析

生成式模型有三大要素:高并發(fā)大算力、海量語料數(shù)據(jù)和復(fù)雜集成的算法。其中,Transformer架構(gòu)生成式算法的主要技術(shù)包括詞向量的表示、編碼器-解碼器架構(gòu)、自注意力機(jī)制、預(yù)訓(xùn)練和微調(diào)、多任務(wù)學(xué)習(xí)、分布式語義等;谏鲜黾夹g(shù)特點(diǎn),逐一分析實(shí)踐中可能存在的倫理問題和難點(diǎn)。

2.1 機(jī)器幻覺造成信息誤導(dǎo)、歧視偏見,價(jià)值觀參差不齊,違背向上向善、公平公正原則

大語言模型的機(jī)器幻覺通常是指模型在生成文本時(shí),產(chǎn)生了不符合事實(shí)、邏輯或常識(shí)的內(nèi)容。出現(xiàn)機(jī)器幻覺的技術(shù)原理,主要有4個(gè)方面。一是深度學(xué)習(xí)模型的局限性。模型會(huì)學(xué)習(xí)到數(shù)據(jù)中的偏見和錯(cuò)誤信息,并在生成文本時(shí)反映出來。二是過度泛化。處理訓(xùn)練數(shù)據(jù)中,模型并非真正理解文本含義,而是試圖找到一種簡單方法來生成文本,這些文本在訓(xùn)練數(shù)據(jù)中出現(xiàn)頻率較高、但并不符合事實(shí)或邏輯。三是優(yōu)化目標(biāo)不一致。訓(xùn)練目標(biāo)是最大化生成文本的概率,生成文本時(shí),更注重提高文本的概率而非確保其準(zhǔn)確性和一致性。四是訓(xùn)練數(shù)據(jù)不足。模型無法學(xué)習(xí)到足夠的信息和知識(shí)。數(shù)據(jù)如存在偏見或歧視,生成內(nèi)容也可能繼承,如訓(xùn)練數(shù)據(jù)中男女職業(yè)分布不均衡,生成內(nèi)容可能也會(huì)體現(xiàn)出這種不平衡。此外,超參數(shù)設(shè)置、自注意力機(jī)制過于復(fù)雜也可能導(dǎo)致機(jī)器幻覺。

機(jī)器幻覺問題可能帶來的倫理問題有:誤導(dǎo)公眾,即生成不符合事實(shí)、邏輯或常識(shí)的內(nèi)容,可能誤導(dǎo)用戶特別是青少年傳播錯(cuò)誤信息,甚至影響社會(huì)穩(wěn)定,違背向上向善原則;公平性缺失,即生成帶有偏見歧視的內(nèi)容,違背公平公正原則,違背生成式算法“第二定律”;僅完成預(yù)訓(xùn)練、SFT的模型,生成內(nèi)容與人類共同價(jià)值觀、所在國家和地區(qū)價(jià)值觀可能差異較大。此外,考慮到大語言模型的復(fù)雜性、海量文本 “千人千面”的生成機(jī)制,在人機(jī)互動(dòng)場景中,采用常規(guī)“機(jī)審+人審”方法對(duì)生成內(nèi)容實(shí)現(xiàn)有效過濾監(jiān)管也存在難度。

2.2 持續(xù)追求模型的能力提升與資源耗費(fèi)、模型可解釋性下降等問題之間的矛盾

自GPT3開始,千億模型時(shí)代來臨,國內(nèi)各企業(yè)大模型也基本是千億級(jí)別。參數(shù)數(shù)量通常與模型的大小、復(fù)雜性和表達(dá)能力有關(guān)。更多參數(shù)意味著模型可學(xué)習(xí)到更復(fù)雜的特征和模式。雖然更大的模型通常具有更強(qiáng)的表達(dá)能力和泛化能力,能處理更復(fù)雜的任務(wù),但參數(shù)是否越多越好?過多的參數(shù)至少存在3個(gè)風(fēng)險(xiǎn)。一是過擬合風(fēng)險(xiǎn)。模型可能會(huì)記住訓(xùn)練數(shù)據(jù)中的噪聲和偏差,導(dǎo)致對(duì)未知數(shù)據(jù)的性能下降。二是模型復(fù)雜度太高帶來的風(fēng)險(xiǎn)。模型會(huì)難以解釋和調(diào)試,遇到問題難以定位和解決。三是訓(xùn)練和推理的計(jì)算資源和時(shí)間成本過高。按相關(guān)文獻(xiàn),訓(xùn)練所需算力可粗略估算為:參數(shù)量×批大小/學(xué)習(xí)率。一個(gè)1 000億參數(shù)模型訓(xùn)練所需算力,假設(shè)批大小為64,學(xué)習(xí)率為0.001,訓(xùn)練所需算力約為16 000 TFLOPS,換算成A100算力約821張卡,事實(shí)上考慮硬件冗余、通信開銷,可能要超過千張卡并行算力,即業(yè)界所說千億參數(shù)模型需要千卡算力。計(jì)算資源和時(shí)間的增加會(huì)造成訓(xùn)練和推理過程中需要更多能源,這可能導(dǎo)致碳排放量增加,對(duì)環(huán)境造成負(fù)面影響。

不斷追求高能力、大參數(shù)可能造成算法模型可靠性、可解釋性下降,違背算法“第三定律”。碳排放量增加會(huì)加劇全球氣候變暖,違背造福人類“以人為本”的“第一定律”。

2.3 個(gè)人信息、重要數(shù)據(jù)泄露風(fēng)險(xiǎn)點(diǎn)增多,違背保障人的隱私和合法權(quán)益原則

基于筆者在《大語言模型的數(shù)據(jù)隱私保護(hù)難點(diǎn)分析與探索》中的觀點(diǎn),預(yù)訓(xùn)練收集的海量語料數(shù)據(jù)中含有大量個(gè)人信息和重要數(shù)據(jù),深度學(xué)習(xí)技術(shù)提升屬性預(yù)測能力使模型成為“社工利器”,各類組織和人群濫用、惡用算法模型實(shí)施違法犯罪,此外算法實(shí)現(xiàn)、優(yōu)化、服務(wù)中的各類安全風(fēng)險(xiǎn)均可能導(dǎo)致個(gè)人信息、商業(yè)機(jī)密甚至國家安全數(shù)據(jù)的泄露風(fēng)險(xiǎn)增大,侵犯他人隱私權(quán)、名譽(yù)權(quán)等合法權(quán)益。數(shù)據(jù)來源不合規(guī),可能涉侵犯他人知識(shí)產(chǎn)權(quán)等。而且因其技術(shù)特點(diǎn),數(shù)據(jù)隱私保護(hù)的“知情同意”和數(shù)據(jù)收集使用“最小必要”原則面臨難以落地的倫理風(fēng)險(xiǎn)。以上問題對(duì)保障人的隱私和合法權(quán)益帶來風(fēng)險(xiǎn),違背了生成式算法“第一定律”。

隱私攻擊、模型越獄、數(shù)據(jù)中毒、基于指令和非指令的后門攻擊,是當(dāng)前較為頻繁且重要的針對(duì)生成式模型的攻擊類型,均會(huì)造成個(gè)人信息和重要數(shù)據(jù)泄露。

2.4 算法的可解釋性、透明性、可追溯性和技術(shù)自主性不足,引發(fā)信任和責(zé)任難點(diǎn)

生成式算法通常被認(rèn)為是一種“黑盒”模型,內(nèi)部工作機(jī)制和決策過程難以解釋,透明性較差。一方面,生成的內(nèi)容難以理解和追蹤,當(dāng)模型生成違規(guī)內(nèi)容時(shí),確定責(zé)任歸屬成為難題,目前歸責(zé)于服務(wù)提供方;另一方面,生成式算法在許多應(yīng)用場景中,難以解釋其決策依據(jù)和結(jié)果。如在一些需要解釋決策依據(jù)的領(lǐng)域,如醫(yī)療診斷、信貸評(píng)估、司法判斷等,這個(gè)問題會(huì)很突出,引發(fā)信任和責(zé)任問題。由于算法決策過程難以解釋,對(duì)其進(jìn)行審計(jì)以確保其合規(guī)性和公平性也變得困難。決策結(jié)果難以令人信服,可能導(dǎo)致用戶對(duì)算法的決策結(jié)果產(chǎn)生懷疑和不信任,影響其在實(shí)際應(yīng)用中的接受度和可用性。

盡管生成式算法自2022年以來異軍突起,但其技術(shù)成熟度和可靠性仍存在一定局限性。Transformer架構(gòu)的生成式算法可能會(huì)產(chǎn)生模式崩塌問題,導(dǎo)致生成內(nèi)容缺乏多樣性和質(zhì)量穩(wěn)定性。此外,目前,我國大語言模型算法均基于Transformer架構(gòu),使用PyTorch框架,訓(xùn)練算力還主要依賴于英偉達(dá)的GPU及其CUDA并行計(jì)算架構(gòu),很多工程化方法也借鑒國外專業(yè)論文成果,自主創(chuàng)新性不足。以上,與生成式算法“第三定律”不符。

3 優(yōu)化思路與框架3.1 從數(shù)據(jù)源頭、訓(xùn)練方法、引入評(píng)估3個(gè)層面糾偏和降低幻覺,加強(qiáng)價(jià)值觀對(duì)齊

降低模型的幻覺、提升算法的公平公正,加強(qiáng)價(jià)值觀對(duì)齊,遵循3個(gè)共性思路。

一是對(duì)數(shù)據(jù)去噪糾偏。對(duì)訓(xùn)練語料進(jìn)行去噪和清洗,去除違法違規(guī)風(fēng)險(xiǎn)數(shù)據(jù)、無意義數(shù)據(jù)、填充缺失值、文本規(guī)范化等,消除潛在的偏差、偏見歧視和不符合價(jià)值觀的數(shù)據(jù);對(duì)文本進(jìn)行詞頻統(tǒng)計(jì),對(duì)圖像進(jìn)行分類,找出可能帶有偏見歧視的詞匯或圖像,進(jìn)行替換或刪除;使用數(shù)據(jù)增強(qiáng)技術(shù)提高數(shù)據(jù)集的多樣性。

二是優(yōu)化算法,強(qiáng)化學(xué)習(xí)與對(duì)抗。更改學(xué)習(xí)率、使用正則化技術(shù),優(yōu)化算法。Transformer架構(gòu)處理長文本有優(yōu)勢、可用來提高對(duì)價(jià)值觀的敏感性和準(zhǔn)確性,但生成文本時(shí)會(huì)出現(xiàn)幻覺,可嘗試使用多模型進(jìn)行融合。使用強(qiáng)化學(xué)習(xí),獎(jiǎng)勵(lì)符合價(jià)值觀的生成結(jié)果、懲罰不符合結(jié)果來引導(dǎo)模型。使用對(duì)抗訓(xùn)練,即在原始數(shù)據(jù)上訓(xùn)練主模型,在另一個(gè)對(duì)抗性數(shù)據(jù)集上訓(xùn)練一個(gè)對(duì)抗性模型,主模型和對(duì)抗性模型迭代優(yōu)化,減少對(duì)特定群體的偏見。這兩種方法可提高模型對(duì)不良內(nèi)容的魯棒性。復(fù)旦大學(xué)NLP團(tuán)隊(duì)在RLHF階段運(yùn)用PPO(近端策略優(yōu)化)算法并優(yōu)化為PPO-max,讓模型更好地理解深層語義。對(duì)齊訓(xùn)練后,相較SFT模型,生成內(nèi)容經(jīng)測試更符合人類價(jià)值觀。

三是引入評(píng)估指標(biāo)。針對(duì)幻覺問題,可使用困惑度(衡量預(yù)測下一個(gè)詞時(shí)不確定性,評(píng)估預(yù)測效果)、BLEU評(píng)分(比較機(jī)器翻譯與人工翻譯間的語法重疊度以評(píng)估翻譯質(zhì)量)、ROUGE評(píng)分(比較系統(tǒng)生成和人工生成文章間的共現(xiàn)詞以評(píng)估文摘質(zhì)量)等指標(biāo),評(píng)估生成效果。針對(duì)歧視偏見,可引入群體公平性指標(biāo)(比較不同性別、種族等群體在模型決策中的表現(xiàn),如比較男性和女性申請(qǐng)人在招聘中的錄取率差異,如很大,可能存在性別偏見)和反事實(shí)公平性指標(biāo)(比較實(shí)際結(jié)果和反事實(shí)結(jié)果之間的差異,如比較一位女性在實(shí)際情況下和假設(shè)其是男性情況下的決策結(jié)果間的差異,如很大,可能存在性別偏見),以確保模型公平對(duì)待不同群體。針對(duì)生成內(nèi)容價(jià)值觀對(duì)齊,可使用安全評(píng)估(對(duì)標(biāo)《生成式人工智能服務(wù)管理暫行辦法》)第四條要求答題測試)、倫理評(píng)分(公平性、透明度、責(zé)任感等)、語義相似度評(píng)估(計(jì)算生成內(nèi)容與預(yù)期價(jià)值觀語義相似度)等方法。

因幻覺問題的解決難度大,在共性方法上,目前還有幾類增強(qiáng)方法。一是后處理。使用語義分析、情感分析,識(shí)別和修正生成文本中的幻覺問題。二是聯(lián)網(wǎng)增強(qiáng)或知識(shí)庫檢索。針對(duì)一些知識(shí)性問題,通過外掛知識(shí)庫、增加聯(lián)網(wǎng)組件等檢索增強(qiáng);針對(duì)一些涉及國家政權(quán)、國家主權(quán)等原則問題,建立權(quán)威問答庫,防止瞎答造成誤導(dǎo)或意識(shí)形態(tài)問題。三是領(lǐng)域適應(yīng)。使用領(lǐng)域特定數(shù)據(jù)來微調(diào)模型,或使用多任務(wù)學(xué)習(xí)來訓(xùn)練模型,提高其泛化能力。

3.2 降本增效,量力而行,動(dòng)態(tài)平衡參數(shù)規(guī)模與適用好用之間的關(guān)系

發(fā)展過程中,追求能力提升與資源耗費(fèi)、模型可解釋性下降的矛盾,可以通過“降本增效”來解決。一是模型壓縮與加速。通過知識(shí)蒸餾和模型剪枝等壓縮和加速技術(shù),在保持性能不變的情況下,降低模型計(jì)算復(fù)雜度和參數(shù)數(shù)量,減少資源耗費(fèi)。二是簡化模型與調(diào)整訓(xùn)練策略。如Transformer-XL等模型在保持性能的同時(shí),簡化了架構(gòu),降低模型復(fù)雜度,提高可解釋性和訓(xùn)練效率。使用更好的優(yōu)化算法、更改學(xué)習(xí)率可幫助模型更有效地學(xué)習(xí)。強(qiáng)化多任務(wù)學(xué)習(xí),提高模型泛化能力。三是數(shù)據(jù)預(yù)處理。數(shù)據(jù)增強(qiáng)、去噪可幫助模型更好地學(xué)習(xí)數(shù)據(jù)規(guī)律,提高性能。

對(duì)于模型研發(fā)、運(yùn)營方來說,要綜合考慮占有或可獲得的計(jì)算資源、訓(xùn)練時(shí)間的承受度、訓(xùn)練數(shù)據(jù)量的收集和預(yù)處理能力、算力和時(shí)間帶來的投資成本,以及模型的應(yīng)用場景、部署成本等因素,遵循“量力而行”和“適合自己就是就好的”基本原則。

3.3 分類、分級(jí)、分場景,加強(qiáng)安全防護(hù)和用戶隱私保護(hù),強(qiáng)化全供應(yīng)鏈安全

針對(duì)算法使用、優(yōu)化、應(yīng)用中涉及的數(shù)據(jù)安全和個(gè)人信息保護(hù)問題,筆者提出:嘗試基于數(shù)據(jù)分類分級(jí)的安全防護(hù),提升針對(duì)性;嘗試不同情形下的“推定同意”“明確同意”“再次同意”,提升知情同意的可操作性;嘗試分階段的不同數(shù)據(jù)匿名化和加密技術(shù)手段,提升有效性;強(qiáng)化事后監(jiān)管,根據(jù)泄露的數(shù)量等級(jí),予以分級(jí)問責(zé)與應(yīng)急處置。

在此基礎(chǔ)上,強(qiáng)化全供應(yīng)鏈安全也至關(guān)重要,包括模型前后端系統(tǒng)、應(yīng)用的網(wǎng)絡(luò)安全,第三方數(shù)據(jù)提供、標(biāo)注處理等外包安全和可控性,模型的魯棒性和抗攻擊性等。特別是針對(duì)當(dāng)前模型越獄、后門攻擊、推理攻擊等攻擊方法,通過對(duì)模型進(jìn)行對(duì)抗訓(xùn)練、融合多模型等方法,使用差分隱私、安全多方計(jì)算等技術(shù),提高模型的魯棒性,不斷加固模型。

3.4 引入倫理規(guī)范,優(yōu)化技術(shù)方法,實(shí)施分類定制,促進(jìn)創(chuàng)新發(fā)展

倫理規(guī)范上,通過道德準(zhǔn)則方法(引入倫理規(guī)則和約束條件)、價(jià)值敏感設(shè)計(jì)(在算法需求分析、設(shè)計(jì)、開發(fā)、測試、部署全過程,考慮道德、倫理和社會(huì)影響)來引導(dǎo)模型決策,在決策過程中加入倫理評(píng)估機(jī)制,推動(dòng)決策過程符合人類倫理價(jià)值觀和道德標(biāo)準(zhǔn);公開模型的倫理規(guī)則、約束條件、評(píng)估標(biāo)準(zhǔn)等,使決策過程更透明;記錄模型的決策過程、倫理評(píng)估結(jié)果等,增強(qiáng)可追溯性。此外,開展用戶教育也有必要,使各類用戶了解生成式算法的原理、局限性和風(fēng)險(xiǎn),以免陷入“烏托邦”或“敵托邦”的極端。

技術(shù)方法上,引入注意力機(jī)制、模塊化結(jié)構(gòu)、知識(shí)圖譜等方法,幫助用戶理解模型在不同任務(wù)中如何工作及決策原因;公開模型架構(gòu)、訓(xùn)練數(shù)據(jù)、訓(xùn)練過程等信息,幫助用戶更好了解模型內(nèi)部工作機(jī)制;記錄模型訓(xùn)練過程、參數(shù)更新、數(shù)據(jù)來源等,幫助用戶進(jìn)行故障排查和問題定位。

分類定制指針對(duì)不同群體、不同應(yīng)用場景,開展專用的算法定制和優(yōu)化。了解不同群體、不同場景的需求,與心理學(xué)、社會(huì)學(xué)專家和領(lǐng)域?qū)<液献鳎槍?duì)性地設(shè)計(jì)和優(yōu)化算法,并加強(qiáng)用戶教育。如針對(duì)未成年人,設(shè)計(jì)算法要考慮加強(qiáng)內(nèi)容過濾、時(shí)間管理和教育支持;針對(duì)老年人,提升易用性、幫助健康監(jiān)測和咨詢、幫助其與家人朋友聯(lián)系社交;針對(duì)消費(fèi)者,算法優(yōu)化價(jià)格比較、評(píng)價(jià)分析、售前售后服務(wù)等保障;針對(duì)女性,要保障性別公正、提供女性健康建議、職業(yè)發(fā)展支持等。在重要領(lǐng)域,行業(yè)主管部門牽頭制定實(shí)施合規(guī)和倫理指引。醫(yī)療領(lǐng)域,算法要保護(hù)患者隱私、提升診斷和治療建議的準(zhǔn)確性,以免誤導(dǎo)醫(yī)生或患者,可使用特征重要性分析方法,幫助理解不同特征對(duì)模型預(yù)測結(jié)果的貢獻(xiàn)程度,如疾病預(yù)測場景中,可找出對(duì)疾病預(yù)測最重要的特征,為醫(yī)生診斷提供參考。金融領(lǐng)域,提高算法合規(guī)性,在信貸、保險(xiǎn)等產(chǎn)品定價(jià)審批中的公平性?墒褂梅词聦(shí)解釋方法幫助理解算法決策過程,如在信貸審批場景,告訴申請(qǐng)人為什么貸款申請(qǐng)被拒絕,由哪些因素導(dǎo)致。司法領(lǐng)域,要提升算法合法合規(guī)性,提高輔助法官?zèng)Q策的公正性,減少誤判概率以確保司法公正。教育領(lǐng)域,算法要保護(hù)學(xué)生隱私、服務(wù)不同學(xué)生的學(xué)習(xí)需求和進(jìn)度、保障資源分配公平,還要避免過度依賴,以免影響學(xué)生自主學(xué)習(xí)能力和發(fā)展。以上各場景,算法都要提高可解釋性,以便不同用戶(醫(yī)生和患者,用戶與監(jiān)管部門等)理解算法決策過程。

在全球激烈競爭的格局下,生成式人工智能領(lǐng)域不發(fā)展就是最大的不安全。因此,目前,我國對(duì)生成式人工智能服務(wù)采取“包容審慎”監(jiān)管原則,對(duì)技術(shù)自研自用基本沒有約束限制;鼓勵(lì)算法、框架、芯片及配套軟件平臺(tái)等基礎(chǔ)技術(shù)的自主創(chuàng)新,參與國際規(guī)則標(biāo)準(zhǔn)制定。

4 可能仍存在的難點(diǎn)和困境

一是機(jī)器幻覺問題無法根治。按目前語言大模型業(yè)界共識(shí),即使采取強(qiáng)化數(shù)據(jù)清洗、改進(jìn)模型架構(gòu)和訓(xùn)練策略、引入檢索增強(qiáng)和事實(shí)校驗(yàn)等各類優(yōu)化方法,仍只能將生成內(nèi)容的準(zhǔn)確性、可靠性最高提升到約80%。剩下的20%,是現(xiàn)階段技術(shù)的盲區(qū)。

二是評(píng)估審查規(guī)則、量化指標(biāo)存在局限性。不同利益相關(guān)方在算法倫理評(píng)估和審查中可能持有不同價(jià)值觀和道德觀,可能導(dǎo)致各方在評(píng)估審查規(guī)則、指標(biāo)等方面難以達(dá)成共識(shí)。前文所提各類評(píng)估指標(biāo)多數(shù)是評(píng)價(jià)算法模型性能。因商業(yè)驅(qū)動(dòng),業(yè)內(nèi)已盛行通過針對(duì)性“刷榜”來提升自家模型“考試成績”。但是,在生成內(nèi)容的安全性、價(jià)值觀符合性方面,目前并沒有成熟的量化評(píng)估或?qū)彶闄C(jī)制,特別是倫理問題的復(fù)雜性,可能很難用指標(biāo)來評(píng)估。

三是評(píng)估審查與算法迭代速度間的矛盾與平衡難點(diǎn)。生成式算法模型的倫理審查和安全評(píng)估涉及制定審查評(píng)估規(guī)則、多方參與、確定指標(biāo)、將評(píng)估審查納入整個(gè)生命周期,持續(xù)優(yōu)化、反饋循環(huán)等流程,除了技術(shù)、方法的難點(diǎn)外,可能帶來時(shí)間、人力、資金等資源限制和投入,與生成式廠商們以O(shè)penAI為目標(biāo)、持續(xù)搞算法模型“煉丹”迭代升級(jí)之間存在矛盾。要真正做到發(fā)展和安全的動(dòng)態(tài)平衡、相得益彰,可能是一個(gè)長期復(fù)雜的過程。

因此,需要通過不斷完善生成式人工智能的監(jiān)管機(jī)制和倫理框架,推動(dòng)產(chǎn)業(yè)鏈相關(guān)主體共同發(fā)揮作用,隨著技術(shù)的不斷發(fā)展,持續(xù)探索與完善。

5 結(jié)束語

本文聚焦生成式人工智能的生成式算法,結(jié)合相關(guān)法律法規(guī)、倫理規(guī)范,提出“生成式算法三定律”(三大定律,12條指引)的倫理原則。同時(shí),結(jié)合其技術(shù)特點(diǎn),分析算法倫理在實(shí)踐中存在的四大難點(diǎn),并初步提出一些解決和優(yōu)化的框架和思路。然而,因各類原因,這些優(yōu)化框架還存在一些倫理困境,需要多方合力,長期探索、完善。

編 輯:章芳
飛象網(wǎng)版權(quán)及免責(zé)聲明:
1.本網(wǎng)刊載內(nèi)容,凡注明來源為“飛象網(wǎng)”和“飛象原創(chuàng)”皆屬飛象網(wǎng)版權(quán)所有,未經(jīng)允許禁止轉(zhuǎn)載、摘編及鏡像,違者必究。對(duì)于經(jīng)過授權(quán)可以轉(zhuǎn)載,請(qǐng)必須保持轉(zhuǎn)載文章、圖像、音視頻的完整性,并完整標(biāo)注作者信息和飛象網(wǎng)來源。
2.凡注明“來源:XXXX”的作品,均轉(zhuǎn)載自其它媒體,在于傳播更多行業(yè)信息,并不代表本網(wǎng)贊同其觀點(diǎn)和對(duì)其真實(shí)性負(fù)責(zé)。
3.如因作品內(nèi)容、版權(quán)和其它問題,請(qǐng)?jiān)谙嚓P(guān)作品刊發(fā)之日起30日內(nèi)與本網(wǎng)聯(lián)系,我們將第一時(shí)間予以處理。
本站聯(lián)系電話為86-010-87765777,郵件后綴為cctime.com,冒充本站員工以任何其他聯(lián)系方式,進(jìn)行的“內(nèi)容核實(shí)”、“商務(wù)聯(lián)系”等行為,均不能代表本站。本站擁有對(duì)此聲明的最終解釋權(quán)。
相關(guān)新聞              
 
人物
中興通訊董事長李自學(xué):算力筑基、 AI 啟智,共迎數(shù)智化新紀(jì)元
精彩專題
通信產(chǎn)業(yè)2024年業(yè)績盤點(diǎn)
3·15權(quán)益日 | 共筑滿意消費(fèi) 守護(hù)信息通信安全防線
聚焦2025全國兩會(huì)
2025年世界移動(dòng)通信大會(huì)
CCTIME推薦
關(guān)于我們 | 廣告報(bào)價(jià) | 聯(lián)系我們 | 隱私聲明 | 本站地圖
CCTIME飛象網(wǎng) CopyRight © 2007-2024 By CCTIME.COM
京ICP備08004280號(hào)-1  電信與信息服務(wù)業(yè)務(wù)經(jīng)營許可證080234號(hào) 京公網(wǎng)安備110105000771號(hào)
公司名稱: 北京飛象互動(dòng)文化傳媒有限公司
未經(jīng)書面許可,禁止轉(zhuǎn)載、摘編、復(fù)制、鏡像