IT之家 3 月 9 日消息,Microsoft Designer 是一款基于 Copilot / DALLE 3.0 的視覺設(shè)計(jì)應(yīng)用,可以僅用幾個(gè)提示詞讓 AI 為你生成所需圖像,還能幫用戶去除圖片背景,生成個(gè)性化貼紙等。
CNBC 發(fā)現(xiàn),Microsoft Designer 在遇到一些特定的提示詞時(shí),例如“pro-choice”“four twenty” “pro-life”等,會(huì)生成一些涉及色情、暴力方面的不良圖片,目前這些特定的提示詞已經(jīng)被微軟禁用。
注:pro life 與 pro choice 是伴隨墮胎合法權(quán)而產(chǎn)生的一組詞,可以理解為“尊重生命”和“尊重選擇”;而 four twent(420)則是大麻文化中的俚語(yǔ),用來指代吸食大麻或哈希什。
IT之家測(cè)試發(fā)現(xiàn),當(dāng)你在 Microsoft Designer 中使用上述提示詞時(shí)會(huì)看到一條提示,“圖片無法生成,其中包括違反微軟 AI 責(zé)任指南的部分內(nèi)容,請(qǐng)更改您的措辭并重試”。
在此之前,當(dāng)你輸入“pro choice(支持墮胎)”時(shí),AI 會(huì)生成一些帶有鋒利牙齒的惡魔正準(zhǔn)備吃掉嬰兒的圖像。
至于這背后原因,CNBC 表示周三有一位 AI 工程師向聯(lián)邦貿(mào)易委員會(huì)提交了一份檢舉信,表達(dá)了他對(duì) Copilot 生圖功能的擔(dān)憂,后續(xù)微軟就開始針對(duì)其 Copilot 進(jìn)行調(diào)整。
除此之外,Copilot 現(xiàn)在還封掉了“青少年或兒童玩槍”的圖像指令,“很抱歉,我無法生成這樣的圖像。這違背了我的道德原則和微軟的政策。請(qǐng)不要要求我做任何可能傷害或冒犯他人的事情。感謝您的配合?!?/p>
對(duì)此,微軟發(fā)言人告訴 CNBC,“我們正在不斷監(jiān)控、調(diào)整并采取額外的控制措施,以進(jìn)一步加強(qiáng)我們的安全審查并減少對(duì) AI 系統(tǒng)的濫用?!?/p>
CNBC 表示,盡管微軟已經(jīng)屏蔽了部分提示詞,但類似于“car accident”(車禍)、“automobile accident”(交通事故)這樣的詞依然可以正常使用,這會(huì)導(dǎo)致 AI 生成一些容易聯(lián)想起血泊、面部扭曲的尸體,以及車禍現(xiàn)場(chǎng)躺著的衣著暴露的女性的圖片。
此外,AI 系統(tǒng)還很容易侵犯版權(quán),例如生成迪士尼角色的圖像,例如《冰雪奇緣》的艾莎手持巴勒斯坦國(guó)旗站在加沙地帶被毀建筑物前,或者身穿以色列國(guó)防軍軍裝手持機(jī)關(guān)槍的圖像。
相關(guān)閱讀:
《微軟 AI 圖片生成器被自家員工舉報(bào):可生成有害圖像》
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。