IT之家 7 月 26 日消息,人工智能的發(fā)展日新月異,尤其是生成型人工智能,已經(jīng)成為科技行業(yè)的熱門(mén)話(huà)題。然而,生成型人工智能也存在著失控的風(fēng)險(xiǎn)。為了確保生成型人工智能的“安全和負(fù)責(zé)任”地發(fā)展,今天,四家領(lǐng)先的人工智能科技公司宣布成立前沿模型論壇(Frontier Model Forum)。
前沿模型論壇是一個(gè)專(zhuān)注于前沿人工智能模型的組織,由微軟、OpenAI、谷歌和 Anthropic 四家公司共同發(fā)起。所謂前沿人工智能模型,是指那些超越現(xiàn)有最先進(jìn)模型的能力,并且可以執(zhí)行多種任務(wù)的大規(guī)模機(jī)器學(xué)習(xí)模型。
在谷歌的博客文章中,該組織公布了其目標(biāo),IT之家翻譯如下:
推進(jìn)人工智能安全研究,促進(jìn)前沿模型的負(fù)責(zé)任開(kāi)發(fā),降低風(fēng)險(xiǎn),并實(shí)現(xiàn)獨(dú)立、標(biāo)準(zhǔn)化的能力和安全評(píng)估。
確定前沿模型負(fù)責(zé)任開(kāi)發(fā)和部署的最佳實(shí)踐,幫助公眾了解這項(xiàng)技術(shù)的性質(zhì)、能力、局限和影響。
與政策制定者、學(xué)者、民間社會(huì)和企業(yè)合作,分享有關(guān)信任和安全風(fēng)險(xiǎn)的知識(shí)。
支持開(kāi)發(fā)可以幫助應(yīng)對(duì)社會(huì)最大挑戰(zhàn)的應(yīng)用,例如減緩和適應(yīng)氣候變化、早期癌癥檢測(cè)和預(yù)防、以及應(yīng)對(duì)網(wǎng)絡(luò)威脅。
該組織將首先建立一個(gè)顧問(wèn)委員會(huì),以便開(kāi)始制定前沿人工智能模型的安全標(biāo)準(zhǔn)建議,并開(kāi)展人工智能安全研究,并與其他公司和政府分享這些工作成果。
聯(lián)合聲明中引用了微軟總裁 Brad Smith 的話(huà):“創(chuàng)造人工智能技術(shù)的公司有責(zé)任確保它是安全、可靠且受人類(lèi)控制的。這一倡議是讓科技界共同推進(jìn)負(fù)責(zé)任的人工智能發(fā)展并應(yīng)對(duì)挑戰(zhàn)的重要一步,以便它造福全人類(lèi)。”
前沿模型論壇也歡迎更多從事前沿人工智能模型開(kāi)發(fā)的公司加入該組織,只要他們也表現(xiàn)出對(duì)前沿模型安全的堅(jiān)定承諾,包括通過(guò)技術(shù)和制度方面的方法。
廣告聲明:文內(nèi)含有的對(duì)外跳轉(zhuǎn)鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時(shí)間,結(jié)果僅供參考,IT之家所有文章均包含本聲明。