IT之家 6 月 19 日消息,據(jù)路透社報道,四名知情人士稱,谷歌母公司 Alphabet 在向全球推廣其聊天機器人 Bard 的同時,也提醒員工在使用聊天機器人時要小心,包括其自家的 Bard。
上述知情人士稱,Alphabet 已經(jīng)建議員工不要將其機密材料輸入人工智能聊天機器人,谷歌證實了這一消息,并稱這是保護信息的長期政策。
其中一些人還稱,Alphabet 還提醒其工程師避免直接使用聊天機器人生成的計算機代碼。谷歌對此表示,Bard 可能會給出不合適的代碼建議,但它仍然可以幫助程序員。谷歌還表示,其旨在對其技術(shù)的局限性保持透明。
谷歌的謹慎態(tài)度也反映了企業(yè)安全標準的發(fā)展趨勢,即警告員工不要使用公開可用的聊天程序。世界各地越來越多的企業(yè)對 AI 聊天機器人設(shè)置了防護措施,其中包括三星、亞馬遜和德意志銀行。據(jù)報道,蘋果也是如此,但該公司沒有回應(yīng)置評請求。
根據(jù)社交網(wǎng)站 Fishbowl 進行的一項調(diào)查,在今年 1 月份有 43% 的專業(yè)人士在使用 ChatGPT 或其他 AI 工具,其中很多人沒有告訴他們的老板。這項調(diào)查涵蓋了近 1.2 萬名受訪者,其中包括來自美國頂級公司的一些員工。
IT之家注意到,目前谷歌正在向 180 多個國家推廣 Bard,谷歌在 6 月 1 日更新的隱私聲明中也表示:“不要在你的 Bard 對話中包含機密或敏感信息。”
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。