(資料圖片)
鳳凰網(wǎng)科技訊《AI前哨》 9月7日,在2023外灘大會“新一代數(shù)據(jù)底座——探索圖智能的應(yīng)用與發(fā)展”分論壇上,螞蟻集團帶來了一項融合研究—“大圖模型”(Large Graph Model,簡稱LGM)。這項研究將圖計算與圖學(xué)習(xí)及大語言模型結(jié)合,利用大語言模型的生成能力和圖計算的關(guān)聯(lián)關(guān)系分析能力,提供更直觀、更全面的信息呈現(xiàn)和更精準(zhǔn)的洞察,從而更好地解決海量復(fù)雜的數(shù)字化應(yīng)用難題。目前螞蟻已完成第一階段“生成式異質(zhì)圖增強”的研究工作,相關(guān)成果論文被世界計算機頂會(WWW 2023)收錄。
在這項研究中,螞蟻集團主要開展了兩項工作。 第一,利用大語言模型豐富圖數(shù)據(jù)。區(qū)別于普通的上下文依賴模型,大語言模型可以根據(jù)現(xiàn)有數(shù)據(jù)生成新的數(shù)據(jù)點。這項工作名為 “生成式異質(zhì)圖增強”工作,即通過大語言模型來擴展和豐富不同類型的圖數(shù)據(jù)。第二,通過Prompt(一種指令或提示)引導(dǎo)模型學(xué)習(xí)和發(fā)現(xiàn)特定數(shù)據(jù)特性。例如,設(shè)置一個 Prompt“一年內(nèi)違約3次以上的群體的共同特征”,模型便會生成滿足特定條件的數(shù)據(jù)樣本。這種能力可以加速數(shù)據(jù)分析和特性發(fā)現(xiàn)的過程。
(責(zé)任編輯:劉海美 )關(guān)鍵詞: