ChatGPT最近被微軟內(nèi)部禁用!GPTs新bug:數(shù)據(jù)兩句話就能套走 |
發(fā)布時間:2023-11-12 文章來源:本站 瀏覽次數(shù):1899 |
留意!你創(chuàng)建GPTs時上傳的數(shù)據(jù),任何人都能簡單下載…… 只需兩句提示詞,就可被直接套走! 而又在另一邊,OpenAI最密切盟友微軟內(nèi)部一度緊迫禁用,網(wǎng)站上顯現(xiàn)的理由正是: 出于安全和數(shù)據(jù)方面的考慮,許多AI東西不再供職工運(yùn)用。 自定制版GPT上線以來,各路大神同享自己GPTs整活鏈接。
成果有網(wǎng)友一個不小心竟扒出了其間某個GPTs背面知識庫文件,里面各種科技大廠職級薪資的數(shù)據(jù)直接曝光…… 只需幾句再簡略不過的提示詞,GPTs就會乖巧地如數(shù)上傳。 有網(wǎng)友表示:這是新的安全漏洞嗎?不少人開始為企業(yè)定制憂慮。 值得留意的是,就連OpenAI最密切盟友微軟,都曾暫時取消過對ChatGPT的內(nèi)部拜訪。 數(shù)據(jù)和提示詞都被走漏依照之前的說法,用戶可深度定制機(jī)器人的身份、言語特征,以及建立自有知識庫。 只需要在GPT Builder的引導(dǎo)之下用自然言語來描繪,他能自動完成除了自有知識庫以外的大部分設(shè)置。 定制過后的GPTs能夠自己用,也能夠?qū)㈡溄油斫o他人。 但問題就出現(xiàn)在這里。 一開發(fā)者用他們?yōu)長evels.fyi創(chuàng)建了基本GPT,可剖析數(shù)據(jù)可視化,并敞開鏈接對外運(yùn)用。 成果就被網(wǎng)友發(fā)現(xiàn)只需問上幾句,就能夠下載文件。 一時間網(wǎng)友們都驚呆了:這應(yīng)該是約束的吧? 但也有人以為這不是bug,而是他的功用。文件中的數(shù)據(jù)應(yīng)該是揭露的。 還有熱心的網(wǎng)友直接給出了解決方案:在設(shè)置時Uncheck代碼解釋器的能力。 不過即使沒被別人下,你上傳的數(shù)據(jù)也會變成OpenAI護(hù)城河的水。 除此之外,還有網(wǎng)友發(fā)現(xiàn),你的提示詞說明文本也或許會被走漏出來。 不過也有解決方式,那便是在自定義時就能夠清晰設(shè)置規(guī)則,然后就能夠成功阻撓了。 微軟內(nèi)部約束ChatGPT拜訪亮相3天后,就在昨天,GPTs面向付費(fèi)用戶全量敞開了。 OpenAI官方是在GPTs頁面預(yù)備了一些定制版機(jī)器人供用戶運(yùn)用的,比如數(shù)學(xué)導(dǎo)師、烹飪幫手、商洽專家等。 但這遠(yuǎn)遠(yuǎn)滿意不了用戶們的好奇心,不到一天時間,開發(fā)者們現(xiàn)已用這個功用做了許多八怪七喇的東西。 正經(jīng)嚴(yán)厲的,有能協(xié)助人自動書寫prompt的、簡歷修正的。 略微整活的,量子位觀察到有“爹味言辭打分”,能幫用戶有力回?fù)魠挓┑腜UA說教。 再形而上學(xué)一點(diǎn),還有具有比如MBTI 16人格剖析、塔羅牌占卜的等等…… 總之,大伙玩兒得不亦樂乎。 但由于現(xiàn)在依然有3小時50條的約束,不少網(wǎng)友無法感慨,玩GPTs,很簡單每日觸發(fā)這個數(shù)量約束。 不過也有網(wǎng)友仍持有保存情緒,以為這會像此前ChatGPT出場即巔峰,而后會逐步歸于平靜期。 與此同時,馬斯克旗幟鮮明表達(dá)了對GPTs的情緒,那便是對GPTs的不 屑 一 顧。 他直接引用奧特曼用GPTs手搓Grok的推特,不客氣地把“GPTs”解讀為“GPT-Snore”。 作為另一款大模型Grok的背面老板,一貫嘴炮全開的馬斯克如此古里古怪,如同并不太稀奇。 最令人睜大眼睛的,還得是前天——也便是OpenAI被黑客進(jìn)犯的那一天,微軟一度制止職工運(yùn)用ChatGPT。 是的沒錯,微軟,OpenAI最大合作伙伴、股東,制止職工拜訪ChatGPT。 據(jù)悉,微軟在其內(nèi)部網(wǎng)站上寫道: 出于安全和數(shù)據(jù)考慮,職工往后將無法運(yùn)用部分AI東西。 什么AI東西呢?點(diǎn)名的便是ChatGPT和設(shè)計(jì)網(wǎng)站Canva。 而后,ChatGPT在微軟職工的內(nèi)部設(shè)備上被屏蔽。 不僅如此,微軟其時還表示,雖然咱確實(shí)投資了OpenAI,但關(guān)于微軟人來說,ChatGPT是第三方東西。 職工運(yùn)用時應(yīng)當(dāng)慎之又慎,就像大伙兒運(yùn)用Midjourney等外部AI東西時一樣。 不過這個制止令并沒有繼續(xù)太久。 很快,職工對ChatGPT的拜訪現(xiàn)已康復(fù),而且官方聲明稱,這只是一次美麗的誤會,but還是引薦大家用Bing(doge)。 咱們正在測驗(yàn)LLM的終端控制系統(tǒng),無意中面向所有用戶敞開了該選項(xiàng)。在發(fā)現(xiàn)過錯后不久,咱們康復(fù)了服務(wù)。> >正如咱們之前所說,咱們鼓勵職工和客戶運(yùn)用Bing Chat Enterprise和ChatGPT Enterprise等具有更高級別隱私和安全維護(hù)的服務(wù)。 不知道是不是為了打破外界“同床異夢”的傳言,奧特曼還親自發(fā)了個推特,證明OpenAI并沒有因?yàn)檫@個事情發(fā)生心思動搖,傳言的OpenAI因而禁用Microsoft 365作為回?fù)舾菬o稽之談。 但這一系列事情說來說去,繞不開“隱私”“數(shù)據(jù)安全”還是這個議題。 也便是說在現(xiàn)在,不僅僅是巨子、公司發(fā)現(xiàn)運(yùn)用ChatGPT/GPTs有“內(nèi)部數(shù)據(jù)同享”的危險,如上文說到的,創(chuàng)業(yè)者、開發(fā)者乃至普通用戶,也發(fā)現(xiàn)了這個問題擺在面前。 因而新一輪的評論就此如火如荼地展開了: 如果任何用戶在GPTs上傳的數(shù)據(jù)、文檔等不能保證私有性,該怎么邁出商業(yè)化的下一步呢? 關(guān)于想要打造ChatGPT年代“App Store”的OpenAI來說,這好像并不太妙。 但一切剛剛開始,不妨看看OpenAI的后續(xù)補(bǔ)救措施,讓子彈再飛一會。 |
|