色爱精品视频一区,亚洲欧美韩国,男女视频在线,久久精品国产精品

歡迎訪問財經股市網
首頁 > 科技 > 正文

OpenAI向部分付費用戶開放GPT-4o語音模式,可提供更自然實時對話

科技來源:IT之家2024-07-31 09:01
  IT之家 7 月 31 日消息,當地時間 30 日,OpenAI 宣布即日起向部分 ChatGPTPlus 用戶開放 GPT-4o 的語音模式(IT之家注:Alpha 版本),并將于今年秋季逐步推廣至所有 ChatGPT Plus 訂閱用戶。

  

 

  今年 5 月,OpenAI 首席技術官米拉?穆拉蒂(Mira Murati)在演講中提到:

  在 GPT-4o 中,我們訓練了跨文本、視覺和音頻的端到端全新統一模型,這意味著所有輸入和輸出都由同一個神經網絡處理。

  由于 GPT-4o 是我們第一個結合所有這些模式的模型,因此我們在探索該模型的功能及其局限性方面仍處于起步階段。

  OpenAI 公司原計劃今年 6 月底邀請一小部分 ChatGPT Plus 用戶測試 GPT-4o 語音模式,但官方在 6 月宣布推遲,表示需要更多時間打磨該模型,提高該模型檢測和拒絕某些內容的能力。

  根據此前曝光的信息,GPT-3.5 模型的平均語音反饋延遲為 2.8 秒,而 GPT-4 模型的延遲為 5.4 秒,因此在語音交流方面不太優秀,而即將推出的 GPT-4o 可以極大地縮短延遲時間,近乎無縫對話。

  GPT-4o 語音模式具有快速反應、聲音堪比真人等特征,OpenAI 更稱 GPT-4o 語音模式可以感知語音中的情感語調,包括悲傷、興奮或歌唱。

  OpenAI 發言人林賽?麥卡勒姆(Lindsay McCallum)表示:“ChatGPT 不能假冒他人的聲音,包括個人和公眾人物的聲音,并且會阻止與預設聲音不同的輸出。”

下一篇:最后一頁
【版權及免責聲明】凡注明"轉載來源"的作品,均轉載自其它媒體,轉載目的在于傳遞更多的信息,并不代表本網贊同其觀點和對其真實性負責。財經股市網倡導尊重與保護知識產權,如發現本站文章存在內容、版權或其它問題,煩請聯系。 聯系方式:QQ:2261036103,我們將及時溝通與處理。
新聞推薦


主站蜘蛛池模板: 金昌市| 雅安市| 额敏县| 堆龙德庆县| 武汉市| 库伦旗| 建始县| 盐边县| 会宁县| 白玉县| 永寿县| 巴南区| 马公市| 左云县| 敖汉旗| 新巴尔虎左旗| 敦煌市| 通辽市| 仁寿县| 大化| 屏边| 颍上县| 舞钢市| 疏勒县| 屏边| 滕州市| 泽普县| 寻乌县| 龙陵县| 屯留县| 福清市| 哈密市| 扎鲁特旗| 嵊州市| 罗源县| 辉南县| 库尔勒市| 沙坪坝区| 邵阳县| 繁昌县| 石棉县|