5月14日,OpenAI推出了一個(gè)更快、更便宜的人工智能模型來支持其聊天機(jī)器人ChatGPT。在周一的直播活動中,OpenAI推出了新的大語言模型GPT-4o。這是其已經(jīng)問世一年多的GPT-4模型的更新版本。該模型基于來自互聯(lián)網(wǎng)的大量數(shù)據(jù)進(jìn)行訓(xùn)練,更擅長處理文本和音頻,并且支持50種語言。新模式將面向所有用戶,而不僅僅是付費(fèi)用戶。GPT-4o的發(fā)布勢將撼動快速發(fā)展的人工智能領(lǐng)域,目前GPT-4仍然是黃金標(biāo)準(zhǔn)。OpenAI發(fā)布新模型也正值谷歌I/O開發(fā)者大會的前一天。谷歌是人工智能領(lǐng)域的早期領(lǐng)導(dǎo)者,預(yù)計(jì)將利用這次活動發(fā)布更多人工智能更新,以追趕有微軟公司支持的OpenAI。
【機(jī)會前瞻】
5月14日凌晨,美國人工智能研究公司OpenAI舉辦了備受期待的“春季更新”活動,活動亮點(diǎn)包括推出新旗艦?zāi)P汀癎PT-4o”和在ChatGPT中免費(fèi)提供更多功能。
GPT-4o是對其一年多前發(fā)布的GPT-4模型的重大更新。GPT-4o不僅在文本和音頻處理上更加出色,還支持多達(dá)50種語言,面向所有用戶開放,不僅限于付費(fèi)用戶。GPT-4o的“o”代表“omni”,意為全能,標(biāo)志著向更自然的人機(jī)交互邁出了重要一步。該模型能夠接受文本、音頻和圖像的任意組合作為輸入,并生成相應(yīng)的輸出內(nèi)容。
OpenAI官網(wǎng)介紹,GPT-4o在API速度上進(jìn)行了顯著提升,同時(shí)大幅降低了成本。新模式在最快232毫秒內(nèi)響應(yīng)音頻輸入,平均響應(yīng)時(shí)間為320毫秒,與人類對話響應(yīng)時(shí)間相仿。此外,OpenAI計(jì)劃在未來一個(gè)月內(nèi)向Plus用戶推出基于GPT-4o的改進(jìn)語音體驗(yàn)。
據(jù)悉,GPT-4o將提供與GPT-4同等水平的智能,同時(shí)在文本、圖像及語音處理方面實(shí)現(xiàn)提升。GPT-4o能夠感知用戶情緒,分析面部表情,使其語音交互更自然逼真。GPT-4o還能根據(jù)要求調(diào)整說話語氣,展現(xiàn)高度的可塑性,并具備唱歌功能。OpenAI還宣布,GPT-4o將免費(fèi)提供給所有用戶使用,付費(fèi)用戶可享受更高的調(diào)用額度。
對于蘋果電腦用戶,OpenAI將推出專為macOS設(shè)計(jì)的ChatGPT桌面應(yīng)用,允許用戶通過快捷鍵與ChatGPT互動。Windows版本預(yù)計(jì)將在今年晚些時(shí)候推出。