生成式 AI 正在深度改變軟件工程流程。Stack Overflow 2024 全球開發(fā)者調(diào)查顯示,76% 的受訪者已在或計(jì)劃在編碼過程中使用 AI 工具,而“AI 寫代碼”正逐步成為主流工作方式。在中國(guó),這一趨勢(shì)同樣迅猛——《2024 中國(guó)開發(fā)者調(diào)查報(bào)告》指出,69% 的國(guó)內(nèi)開發(fā)者已經(jīng)在日常工作中使用 AI 工具。
幻覺依賴與“Slopsquatting”攻擊
美國(guó)三所高校在 2025 年聯(lián)合發(fā)布的研究顯示,開源大語言模型在生成代碼時(shí),平均有 21.7% 的依賴包屬于“幻覺”——根本不存在于 npm 或 PyPI 倉(cāng)庫(kù);商業(yè)模型的這一比例也達(dá)到 5.2% 。攻擊者據(jù)此衍生出“Slopsquatting”——專門監(jiān)控 AI 建議的虛構(gòu)包名并搶注,再將惡意代碼植入。一旦開發(fā)者無條件接受助手推薦,就可能把木馬依賴自動(dòng)寫進(jìn) CI/CD 流水線,惡意代碼隨之從開發(fā)環(huán)境一路擴(kuò)散到生產(chǎn)系統(tǒng)。
2023 年底的 huggingface-cli 事件便是一記警鐘。該名稱本是 AI 助手反復(fù)生成的“幽靈依賴”,結(jié)果被研究人員注冊(cè)至 PyPI 后,在短短幾天內(nèi)就被數(shù)千名開發(fā)者下載集成,所幸測(cè)試包并未植入惡意載荷。若換作真正黑客大規(guī)模運(yùn)營(yíng),同樣的漏洞足以讓全球項(xiàng)目同時(shí)“中招”。
Check Point:“AI 對(duì)抗 AI”的供應(yīng)鏈安全新思路
Check Point Research 指出,開發(fā)者依賴 AI 助手而形成的“信任真空”正被黑客利用。對(duì)此,Check Point 在過去幾年中不斷強(qiáng)調(diào)“AI 對(duì)抗 AI” 策略的重要性。Check Point用戶可利用 ThreatCloud AI 近百個(gè)算法引擎持續(xù)分析全球節(jié)點(diǎn),一旦發(fā)現(xiàn)未知風(fēng)險(xiǎn)便即刻給出阻斷建議,阻止漏洞進(jìn)入生產(chǎn)鏈路。對(duì)開發(fā)者而言,這意味著在不犧牲效率的前提下,把“人盲審”變成“AI 先驗(yàn) + 人復(fù)核”的雙保險(xiǎn)。
行動(dòng)建議
開發(fā)和安全團(tuán)隊(duì)必須采取嚴(yán)格的實(shí)踐措施,以有效應(yīng)對(duì)依賴管理漏洞。首先,對(duì)AI生成的建議保持懷疑態(tài)度——切勿盲目信任建議的依賴項(xiàng)。實(shí)施嚴(yán)格的驗(yàn)證流程,手動(dòng)驗(yàn)證不熟悉的包名稱,并始終使用鎖定文件、固定版本和加密哈希驗(yàn)證。此外,維護(hù)內(nèi)部鏡像或可信包白名單可大幅降低受惡意新包影響的風(fēng)險(xiǎn)。研究人員測(cè)試了多種減少幻覺的方法,其中包括檢索增強(qiáng)生成(RAG)和監(jiān)督式微調(diào)。雖然這些技術(shù)顯著減少了幻覺的發(fā)生率(最高可達(dá)85%),但它們也引入了一個(gè)關(guān)鍵的權(quán)衡,即對(duì)整體代碼質(zhì)量產(chǎn)生不好的影響。這強(qiáng)調(diào)了需要全面的安全解決方案,能夠在不犧牲開發(fā)效率的情況下主動(dòng)識(shí)別威脅。
結(jié)語
AI 編碼助手讓開發(fā)速度再攀高峰,也將供應(yīng)鏈防護(hù)推入前所未有的“倍速時(shí)代”。當(dāng)“幽靈依賴”成為新的攻擊入口,唯有用更智能、更主動(dòng)的安全能力去匹配 AI 賦能的開發(fā)模式,才能守住軟件供應(yīng)鏈的最后防線。