IT之家 5 月 15 日消息,OpenAI 昨日凌晨發(fā)布 GPT-4o 模型,可以視為 GPT-4 的升級版本,可以實時推理處理音頻、視覺和文本內(nèi)容,而且能更加無縫地和 ChatGPT 交互。
OpenAI 總裁兼聯(lián)合創(chuàng)始人格雷格?布羅克曼(Greg Brockman)隨后發(fā)布了上手演示,讓兩臺運行 GPT-4o 的設備進行語音或視頻交互。
布羅克曼在演示開始之前,表達了自己的期望:讓兩臺 AI 聊天機器人互相交流。布羅克曼向其中 A 聊天機器人講述了他的期望,并讓 B 聊天機器人可以調用攝像頭觀察周圍世界。
B 聊天機器人會調用前置攝像頭,并清晰地描繪出用戶的穿著和所處的環(huán)境。然后 A 聊天機器人可以與它對話并提出問題,包括移動攝像頭和它所看到的內(nèi)容。
對話中,新版本 ChatGPT 不僅能通過視覺 AI 能力理解攝像頭中發(fā)生的事情,同時還能夠將理解的內(nèi)容通過語音交互,進行更加豐富有趣的互動,同時還支持中途打斷和對話插入,且具備上下文記憶能力。IT之家附上演示視頻如下:
廣告聲明:文內(nèi)含有的對外跳轉鏈接(包括不限于超鏈接、二維碼、口令等形式),用于傳遞更多信息,節(jié)省甄選時間,結果僅供參考,IT之家所有文章均包含本聲明。