IT之家 6 月 15 日消息,據(jù)路透社報道,盡管谷歌是生成式 AI 最堅定的支持者之一,但該公司正在警告員工注意聊天機器人的使用。
知情人士稱,谷歌母公司 Alphabet 已建議員工不要將其機密材料輸入給 AI 聊天機器人,同時該公司還提醒 IT 工程師避免直接使用聊天機器人生成的計算機代碼。
谷歌對此回應(yīng)稱,其聊天機器人 Bard 可以提出不受歡迎的代碼建議,但它仍然對 IT 工程師們會有所幫助。谷歌表示其目標(biāo)是對生成式 AI 的技術(shù)局限性保持足夠的透明度。
分析人士指出,這些擔(dān)憂表明谷歌希望避免生成式 AI 對公司的商業(yè)化運作造成損害,這種謹慎的態(tài)度也體現(xiàn)出對生成式 AI 的使用限制正越發(fā)成為某種具有共性的企業(yè)安全標(biāo)準(zhǔn)。
IT之家此前報道,包括三星、亞馬遜、蘋果等大型科技企業(yè)對員工使用生成式 AI 都設(shè)置了一定的限制,以確保不會對公司運營造成風(fēng)險。
支持 OpenAI 的微軟則拒絕評論是否已全面禁止員工將機密信息輸入 ChatGPT 這樣的公共 AI 應(yīng)用。但微軟消費者業(yè)務(wù)首席營銷官 Yusuf Mehdi 曾表示,公司不希望員工使用公共聊天機器人工作是“有道理的”。
根據(jù) Fishbowl 對包括美國頂級公司員工在內(nèi)的近 12000 名受訪者的調(diào)查,截至今年 1 月,約 43% 的專業(yè)人士在工作中使用了 ChatGPT 或其他生成式 AI 工具,而且通常都沒有告訴他們的老板。
廣告聲明:文內(nèi)含有的對外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。