2025年6月25日下午2時,k8凯发国际與人工智能學院第五十九期研究生學術論壇在崇真樓南樓A4030成功舉辦。本次論壇由2023級研究生胡廣成、饒忠睿、付江琴、呂加鋒、王寶輝主講,k8凯发国际與人工智能院研究生會學術部主辦,學院阮曉莉老師出席了該論壇。

胡廣成同學分享的主題為「TrustUQA: A Trustful Framework for Unified Structured Data Question Answering」。針對自然語言問答在結構化數據(如表格、知識圖譜和時序知識圖譜)上的泛化能力差與信任度低的問題,他提出了TrustUQA框架,顺利获得統一的Condition Graph(CG)對多種數據源進行表示,並利用兩級示例檢索結合大模型生成查詢語句來執行CG查詢,以保證答案的準確性與可解釋性。為進一步提升性能,TrustUQA還引入了動態示例檢索機制,以自適應地選擇最相關的演示示例。在涵蓋表格、知識圖譜和時序KG的5個基準上,TrustUQA不僅超越了已有的兩種統一QA方法,而且在其中兩個數據集上達到了最新的領先水平,展示了其在混合與跨源問答場景中的良好擴展性與可信度。

饒忠睿同學分享的主題為「ArmBCIsys: Robot Arm BCI System with Time-Frequency Network for Multi-Object Grasping」。他們的研究針對殘障人士使用消費級腦電設備在複雜環境下的物體抓取問題,提出ArmBCIsys系統,該系統集成時域卷積與頻域Transformer雙分支腦電解碼網絡DBFENet、基於分割的視覺引導,以及實時機械臂控制模塊。DBFENet結合時域卷積與DCT頻域建模,有效提升腦信號識別精度。實驗在自采數據集上取得98.56%的解碼準確率,驗證了系統的魯棒性與實用性。

付江琴同學分享的主題為「SeqTrack: Sequence to Sequence Learning for Visual Object Tracking」。視覺目標跟蹤傳統方法通常需要設計複雜的多任務網絡結構,如分類頭、回歸頭以及多個損失函數,導致框架臃腫且訓練困難。針對這一問題,SeqTrack創新性地將跟蹤任務轉化為序列生成問題,採用簡潔的編碼器-解碼器Transformer架構。編碼器負責提取視覺特徵,解碼器則以自回歸方式逐詞生成邊界框坐標,僅需單一交叉熵損失函數即可完成訓練。這一方法顺利获得序列化建模將陆续在坐標離散化為token序列,不僅統一了任務形式,還省去了複雜的頭部網絡設計,大幅簡化了框架。同時,SeqTrack創新性地利用Token似然實現動態模板更新等先驗知識融合,進一步提升了跟蹤的魯棒性。該研究為視覺目標跟蹤任務给予了一種高效、簡潔的新範式。

呂加鋒同學分享的主題為「GA-FusionNet:Global adaptive fusion network for RGBT tracking」。針對現有 RGBT 跟蹤方法中固定融合結構、動態加權機制缺失及多尺度信息利用不足的問題,提出 GA-FusionNet。該網絡藉助預訓練編碼器獨立提取 RGB 和 TIR 模態特徵,顺利获得全局自適應融合模塊基於場景動態生成模態權重,並將各層融合特徵級聯形成多尺度表示。實驗表明,其在多數據集上性能優於 SOTA,尤其在低光、遮擋等複雜場景表現更優。

王寶輝同學分享的主題為「Intelligent Question-Answering System Based on the Knowledge Graph of Ancient Costumes」。他提出融合實體識別與意圖識別的問答系統架構。前者為處理歧義和上下文依賴問題,捕獲領域特定術語,基於RoBERTa深度學習精準提取服飾信息,引入多尺度特徵融合模塊和規律抽取模塊,從而提高模型的性能和泛化能力。後者借千問大模型解析用戶意圖。經訓練測評,實體識別模型F1值達95.43%,問答系統準確度、滿意度表現優異,泛化能力良好,為該領域研究给予新方向。
