用照片也可以聊天!OpenAI 發布新模型「GPT-4」增加圖像輸入功能!OpenAI推更強語言模型

用照片也可以聊天!OpenAI 發布新模型「GPT-4」增加圖像輸入功能

近期因聊天機器人「ChatGPT」火紅的科技公司 OpenAI ,昨(14)日發布最新人工智慧模型「GPT-4」,除了內容文字精準之外,這項AI模型還可以支援「圖片輸入」這項功能,以文字來解釋圖像內容,甚至可以回答問題。

OpenAI表示,GPT-4是一種多模態 (multimodal) 的 AI 模型,除了準確度、創造力和協作性更高之外,還可透過圖像輸入來生成內容,將開放給 ChatGPT Plus 的付費訂閱者使用。

OpenAI 指出,相較於前一版的 GPT-3.5,GPT-4有了巨幅改進,在模擬美國法學院畢業生參加律師考試的實測中,GPT-4的分數可達到前 10% 左右,GPT-3.5卻只能落在後10%。

雖然在一般對話中,原本的GPT-3.5與GPT-4兩種版本模型當中,生成內容很類似,但是GPT-4能夠處理更細膩與複雜的指令,而字數限制也從3千調整到2萬5千個字。

OpenAI推更強語言模型 比ChatGPT優但不完全可靠

新創公司OpenAI今天推出更強語言模型GPT-4,微軟表示其Bing聊天機器人已應用此技術。OpenAI表示,GPT-4在某些專業考試表現更突出,但仍存有「幻覺」,無法完全信賴。

OpenAI去年11月底推出聊天機器人ChatGPT引發熱議,今天又正式推出「更強大」語言模型系統GPT-4。

ChatGPT推出後被大量應用也引起正反兩面評價,OpenAI表示GPT-4花6個月測試,儘管「離完美還很遙遠」,在真實世界的情境表現不如人類,但此加強版語言模型在不同的專業和學術水準上的成果,比前一代系統更好。

拿GPT-4和上一代語言模型相比,在律師資格考試模擬測驗中,前者成績為應試者的前10%、也就是可勝過9成考生,後者則是倒數10%,其他像是SAT閱讀和數學考試,GPT-4亦比上一代進化。

在日常對話情境中,GPT-4和上一代語言模型的差異不明顯,但當任務的複雜程度到達一定門檻後,GPT-4較富創意並能執行較多細微的指令。

由於GPT-4訓練的資料量更為龐大,因此與前幾代系統相較準確度有再提升,不過OpenAI警告,新系統仍會產生「虛構事實和錯誤推論的情況」。

微軟(Microsoft)今天也表示,新的Bing聊天機器人就是使用GPT-4。程式設計或開發人員也可申請把此技術透過API整合至其應用程式;一般大眾若想體驗GPT-4的服務,則可選擇月付20美元(約新台幣607元)註冊ChatGPT Plus。

🍎たったひとつの真実見抜く、見た目は大人、頭脳は子供、その名は名馬鹿ヒカル!🍏