Google DeepMind 提出新方法,解決大模型答案的奉承行為 |
發(fā)布時間:2023-08-11 文章來源:本站 瀏覽次數:2230 |
8月10日訊,據 Arxiv頁面顯示,一群來自 Google DeepMind 的研討者近日發(fā)表論文,公布了一項全新的研討技能,可用于進步生成式大模型答復的準確性。 研討指出,大言語模型會在必定程度上依據用戶的觀點來調整自己的答案,這將會影響答案的客觀性和正確性。該研討團隊經過對公共NLP使命進行輕量級微調,鼓舞模型對用戶在這些使命上的觀點更加穩(wěn)健。 研討顯示,添加這些數據能夠明顯削減在答復中的奉承行為。 |