生成式人工智能監管辦法更“對癥” 劃定界限也留下發展空間 |
發布時間:2023-05-03 文章來源:本站 瀏覽次數:2370 |
4月11日,國家互聯網信息辦公室開始就《生成式人工智能服務管理辦法(征求意見稿)》向社會揭露征求意見。專家分析,《征求意見稿》提出多個層面的監管意見,強調權益保護,防止“濫用”行為,有助于我國的生成式人工智能技能健康發展。 《征求意見稿》共21條,將“生成式人工智能”定義為根據算法、模型、規矩生成文本、圖片、聲音、視頻、代碼等內容的技能,明確“國家支撐人工智能算法、框架等根底技能的自主創新、推廣使用、國際合作,鼓舞優先選用安全可信的軟件、東西、核算和數據資源”。 根據《征求意見稿》,供給生成式人工智能產品或服務應當恪守法律法規的要求,尊重社會公德、公序良俗,制止不合法獲取、發表、利用個人信息和隱私、商業秘密。利用生成式人工智能產品向公眾供給服務前,要向國家網信部門申報安全評價,對生成式人工智能產品的預練習數據、優化練習數據來歷的合法性擔任。用于生成式人工智能產品的預練習、優化練習數據,應契合法律法規要求,不含有侵犯知識產權的內容,數據包含個人信息的,應當征得個人信息主體同意,并保證數據的真實性、準確性、客觀性、多樣性。 而在用戶端,供給生成式人工智能服務應當依照規則,要求用戶供給真實身份信息,發現違反法律法規,違背商業道德、社會公德行為,包括從事網絡炒作、歹意發帖跟評、制造垃圾郵件、編寫歹意軟件,實施不正當的商業營銷等,應當暫停或許停止服務。 跟著ChatGPT火爆商場,群眾對生成式人工智能技能的認知程度不斷提高。截至目前,已有百度、華為、騰訊、阿里、京東、360等我國互聯網企業布局生成式人工智能事務。技能的快速發展,給監管機構和商業生態提出了更高的要求,也帶來了更大的應戰。 業內人士表明,《征求意見稿》的出臺,意味著AI職業的標準化步伐正加速,劃定界限的一起,也為其留下了充分的發展空間,致力于避免“先污染后管理”的困境。跟著更多使用落地,一些潛在的風險將被知道和暴露,監管側辦法也會更加“對癥”,《征求意見稿》只是第一步。 |