在工作場合禁用ChatGPT等生成式人工智能工具,三星最新入列。
01 再添一員
據(jù)多家媒體5月3日報(bào)道,三星推出了一項(xiàng)新政策,要求員工不得在工作場所使用OpenAl的ChatGPT和谷歌 Bard等生成式人工智能。據(jù)三星稱,4月,該公司的一名工程師將內(nèi)部源代碼上傳到ChatGPT后,意外泄漏了內(nèi)部源代碼。這讓三星擔(dān)憂其數(shù)據(jù)將通過人工智能平臺最終落入其他用戶手中。
目前,三星員工已被禁止在公司設(shè)備上使用人工智能工具,包括電腦、平板電腦、手機(jī)等,但員工仍可以在個(gè)人設(shè)備上使用。該公司還強(qiáng)調(diào),若違規(guī)并導(dǎo)致公司信息或數(shù)據(jù)泄漏的話,員工將得到紀(jì)律處分,情節(jié)嚴(yán)重者將被解雇。
需要指出的是,三星關(guān)于生成式人工智能的規(guī)定,針對的場景是工作場所,并不限制私人場景的使用。在三星宣布工作場所禁用ChatGPT之前,已經(jīng)有多家企業(yè)巨頭對其員工使用ChatGPT提出了要求。
臺積電發(fā)布內(nèi)部公告,謹(jǐn)慎使用網(wǎng)絡(luò)工具如ChatGPT或Bing AI Chat等提醒員工應(yīng)秉持“不揭露公司信息”、“不分享個(gè)人隱私”、“不完全相信生成結(jié)果”原則。
日本銀行巨頭軟銀,出臺了使用交互式人工智能等云服務(wù)的指導(dǎo)方針,警告員工使用ChatGPT和其他商業(yè)應(yīng)用,“不要輸入公司身份信息或機(jī)密數(shù)據(jù)”。
美國*的銀行摩根大通決定臨時(shí)限制員工使用近期爆火的新型人工智能聊天機(jī)器人ChatGPT。
70多萬員工的科技咨詢巨頭埃森哲,也警告員工不要將客戶信息暴露給ChatGPT等聊天工具。
全球電商巨頭亞馬遜警告員工不要與聊天機(jī)器人工具共享機(jī)密信息。
日本瑞穗金融集團(tuán)、三菱日聯(lián)金融集團(tuán)和三井住友銀行已禁止在公司運(yùn)營中使用ChatGPT和其他服務(wù)。
02 極限拉扯
隨著ChatGPT等生成式人工智能工具應(yīng)用開始普及,在ChatGPT改變工作方式、改變世界的同時(shí),越來越多的企業(yè)和機(jī)構(gòu)意識到隱私保護(hù)的緊迫性,制定出合理的數(shù)據(jù)隱私規(guī)范,也迫在眉睫了。
這種隱私數(shù)據(jù)保護(hù)的緊迫性有兩個(gè)來源,一方面是,人工智能公司需要大量的數(shù)據(jù)來訓(xùn)練更聰明智能的大模型,訪問并索取用戶隱私數(shù)據(jù),必然造成用戶隱私泄露;另一方面是,隨著越來越多企業(yè)員工將ChatGPT加入工作流,上傳的數(shù)據(jù)中難免會夾帶公司機(jī)密信息。
業(yè)界認(rèn)為,ChatGPT學(xué)習(xí)能力極強(qiáng),還能在與用戶對談的同時(shí),認(rèn)知錯(cuò)誤并學(xué)習(xí),越來越多企業(yè)禁止員工在與AI對談揭露公司信息,也算是合理要求。不只是企業(yè),多個(gè)歐洲國家已經(jīng)對ChatGPT提出嚴(yán)格的監(jiān)管要求,意大利、德國、法國、西班牙等??梢?,用戶隱私保護(hù)已經(jīng)是必須品,各國已經(jīng)從法律方面限制人工智能的道德倫理風(fēng)險(xiǎn)了。
為了應(yīng)對數(shù)據(jù)隱私方面的爭議,OpenAI最新blog宣布了ChatGPT數(shù)據(jù)使用的新規(guī)則:用戶可以通過關(guān)閉聊天記錄功能,來避免自己的個(gè)人數(shù)據(jù)被官方拿去訓(xùn)練。現(xiàn)在在用戶個(gè)人管理中,已經(jīng)出現(xiàn)了一個(gè)關(guān)閉“Chat history&training”的選項(xiàng)。只要點(diǎn)擊取消,歷史記錄就被禁用了,新的對話也不會再存入聊天記錄里。
但新的對話還是會在官方系統(tǒng)里留存30天,OpenAI解釋說:只有在監(jiān)控是否存在數(shù)據(jù)濫用時(shí)才會審查這些數(shù)據(jù),30天后將*刪除。同時(shí)還上線了一個(gè)導(dǎo)出聊天記錄的Export功能,方便用戶自己保存數(shù)據(jù)。
有分析認(rèn)為,用戶隱私保護(hù)和更好訓(xùn)練模型需要更多數(shù)據(jù)之間存在極限二選一的困境:用戶數(shù)據(jù)被拿去訓(xùn)練,是ChatGPT對話能力提升的途徑之一,數(shù)據(jù)越多意味著模型能被訓(xùn)練地越精準(zhǔn)、聰明;但是這樣做必然會侵犯用戶的隱私安全。
值得一提的是,這不是OpenAI*次調(diào)整ChatGPT隱私數(shù)據(jù)使用規(guī)則了。3月1日開始,所有調(diào)用API接口的用戶數(shù)據(jù),將不再被用于模型訓(xùn)練,除非用戶自愿提供。
不過,有測評人士質(zhì)疑,ChatGPT功能改進(jìn)的按鈕設(shè)置暗藏玄機(jī),關(guān)閉聊天記錄的按鈕設(shè)置隱蔽復(fù)雜,用戶使用的意識和概率都不高,OpenAI保護(hù)用戶隱私的誠意不夠。
從法律上將,用戶隱私必須保護(hù)。從技術(shù)上將,大模型訓(xùn)練必需數(shù)據(jù)。這是兩個(gè)“剛需”,未來二者還將極限拉扯。


117505/05








