報告時間:2023年6月14日(星期三) 10:00
報告地點:翡翠科教樓A座805室
報 告 人:王希廷 高級研究員
工作單位:微軟亞洲研究院
舉辦單位:計算機與信息學院
報告簡介:
模型時代,可解釋和模型對齊變得至關重要。大模型對人的工作生活影響越來越大,但卻更加難以理解和控制。OpenAI對外支持的七大研究方向中,可解釋和模型對齊就是其中兩個。我們應該怎么讓深度學習模型變得更透明、可理解、更容易訓練、調試和優化,確保它和人類意圖對齊呢?這次報告將圍繞這些問題進行探討,介紹我們近期發表在ICML、NeurIPS、KDD的可解釋人工智能(XAI)以及利用強化學習從人類反饋學習(RLHF)的方法。
報告人簡介:
王希廷,MSRA社會計算組高級研究員,研究興趣為可解釋、負責任的人工智能。發表論文50多篇,其中CCF-A類論文40篇。兩篇論文被CCF-A類期刊IEEE TVCG評選為封面論文。H-Index為24,谷歌學術引用2300多。相關科研成果落地全球占有量第二的必應搜索引擎。被邀請擔任IJCAI、AAAI領域主席,加入IEEE VIS組委會擔任檔案主席,被評為AAAI 2021 杰出高級程序委員。兩次受邀在SIGIR可解釋推薦研討會上發表主旨演講,是CCF和IEEE高級會員。