基於強化學習的關係抽取和文字分類

2021-08-20 09:05:15 字數 342 閱讀 7167

本文為 11 月 22 日,清華大學計算機系——馮珺博士在第 18 期 phd talk 中的直播分享實錄。

隨著強化學習在機械人和遊戲 ai 等領域的成功,該方法也引起了越來越多的關注。本期 phd talk,來自清華大學計算機系的博士生馮珺,為大家介紹了如何利用強化學習技術,更好地解決自然語言處理中的兩個經典任務:關係抽取和文字分類。 

在關係抽取任務中,嘗試利用強化學習,解決遠端監督方法自動生成的訓練資料中的噪音問題。在文字分類任務中,利用強化學習得到更好的句子的結構化表示,並利用該表示得到了更好的文字分類效果。本次分享的兩個工作均發表於 aaai2018。

>

>

>

>

基於模型的強化學習

1 在model based rl裡,雖然學習mdp模型可以提高強化學習的效率,但是如果模型誤差較大可能導致學不到較好的策略,這個問題一般怎麼解決?如果模型學習的不夠精準,那就只能用很短很短的rollout來做planning。例如q planning就是1步的rollout,這樣並不能特別高的提公...

RL(九)基於策略的強化學習

前面的演算法都是基於價值來算的,但是當處理連續動作的問題時,就顯得力不從心了,因為我們需要求的q錶太大,根本無法滿足我們的需要。前面我們在演算法分類的時候也講過,我們可以按基於價值和基於策略的方式來給rl分類,所以這篇部落格就是用基於策略演算法來求解強化學習問題。值函式近似法 在值函式近似法中,動作...

基於強化學習的放置類遊戲

心理基礎 遊戲特定 相關資料 emergent tool use from multi agent autocurricula 實施方案 角色屬性2 移動速度mov spd,每秒移動的格仔數 角色技能1 近程攻擊 角色技能 遠端攻擊 角色每秒可以進行一次操作 移動或者攻擊 角色1屬性 近程攻擊,移動...