最近幾年,超大屏幕,杜比音效,女王座椅以及多樣的駕駛模式,從30萬元以上車型到20萬元左右新車,逐漸成為標配。根據蓋世汽車研究院數據,2023年上半年,中控大屏、車載語音交互和車聯網的滲透率均超過70%。同時隨著智能座艙功能愈加豐富,域控、HUD和DMS的滲透率也在不斷提高。 汽車智能化水平的提高為產業發展按下加速鍵,但由此也引發出更多思考。如面對智能座艙明顯的同質化趨勢,車企該如何應對?當人機交互設計遭遇瓶頸,車企又該從哪里創新? ![]() 圖片來源:華人運通 10月20日舉辦的汽車與環境創新論壇上,華人運通智能座艙產品及AI交互負責人吳曉敏直言,“在2022年、2023年,幾乎所有人(車企)都在做相同的事。”不遺余力地搞智能、搞聯網、結合場景化需求提高用戶體驗。 可問題是做了這么多,給用戶帶來的體驗改善其實是有限的。用戶感知不到,或者感知不敏感,都可能導致其活躍度不達預期。這讓智能座艙的發展一度陷入尷尬境地。“大家不知道該何去何從,只能不斷往下卷。”既卷應用,又卷技術創新。 大模型 助力打造下一代智能化體驗 其中一個最直觀的應用便是車載語音助手。自2023年以來,大模型上車的速度明顯加快,從ChatGPT發布到國內廠商紛紛推出自己的大模型,再到現階段,大模型已經成為打造車載語音助手的最重要途徑。 究其原因,傳統語音交互無法實現個性化和情感化的交互能力,而這恰恰是當下用戶所需的。 今年早些時候,理想旗下語音助手“理想同學”就加入了其自研的MindGPT,可以支持聲紋識別、內容識別、AI繪畫、AI計算等功能。10月份,隨著智己LS6上市,其自研的GPT大模型也正式上線。而蔚來也已申請NIOGPT、NOMIGPT等商標。 國內首批大模型玩家當屬阿里、騰訊等科技大廠,不過要論上車速度,則一定有百度、科大訊飛等AI公司。科大訊飛“LION AI”大模型已經首搭奇瑞星紀元ES,文心一言也將隨著極越01量產落地。 近日,百度CEO李彥宏用視頻形式展示了極越01智能座艙所搭載的語音交互能力,包括車外語音、四路同說、多模態融合等能力。 李彥宏表示,當大模型與智能座艙相結合,交互得越多,大模型就越能理解人的需求。大模型上車,讓智能座艙擁有邏輯推理、策略規劃和內容生成等諸多能力,即便是七嘴八舌、多人指令、聲音交織、連續對話的情況下,它也能理解每個人不同的需求,并且滿足。 吳曉敏也有同樣的感觸。“過去,語音交互的所有技能都是由產品經理定義。產品經理寫各個技能,寫完技能的上限有多少就是多少。現在不一樣了,AI大模型的自學習能力,給智能座艙的未來發展帶來了更多想象空間。” 除了能夠降本增效,引入大模型一來可以有效改善座艙產品體驗。包括語音助手、導航地圖等;二來,通過大模型有望得到一些新產品新需求。以大模型為中心,疊加場景化需求,可能會產生新的座艙服務。 ![]() 圖片來源:蓋世汽車研究院 大模型帶來的挑戰也顯而易見。首先,大模型以海量訓練數據作為基礎,之后更是需要投喂源源不斷的新數據,對初步總結下來的模型特征或者規則進行不斷調優。也因此,高質量的數據被認為是大模型的核心競爭力。 另外在吳曉敏看來,如何把大模型的效果調優好,也是一個非常大的難題。除了要在獲取高質量數據上下功夫,解決大模型答非所問、胡說八道的問題也是其中關鍵。 從大模型的訓練本身來看,由于美國進一步收緊對中國高端芯片的出口管制,GPU成本問題以及供應都是行業亟需解決的重點問題。不過,吳曉敏仍樂觀認為,接下來座艙體驗將會迎來革新式升級,區別于智能語音助手產品,大模型的應用將給用戶帶來下一代智能化體驗。 實際上,華人運通在大模型方面有著更深入的思考。基于智能汽車(高合)、智捷交通和智慧城市的三位一體戰略,華人運通通過運用5G、車路協同、大數據、云計算和AI技術,持續推動車路云協同進程,并通過軟件定義汽車,實現以模型驅動未來的長遠目標。 毋庸置疑,大模型的規模化量產意味著AI新時代已經開啟,而隨著汽車智能化功能不斷滲透,人機交互也明顯有了更新的突破。 AR-HUD催生新的人機交互革命 結合蓋世汽車研究院的觀點,在中短期內,大屏、多屏依然是智能座艙發展的主流趨勢。但不能忽視的是,液晶儀表正逐漸被滑移屏、方向盤交互屏以及W/AR-HUD所取代。 尤其在汽車消費升級和駕駛安全越來越被重視的趨勢下,HUD裝車率呈現出逐年上升趨勢。 10月20日舉辦的汽車與環境創新論壇上,思必馳科技股份有限公司HUD業務負責人苗順平表示,“我們非常堅定AR-HUD增強現實的抬頭顯示器,會成為人工智能多模態交互完美融合的產品。它兼顧了信息輸出與駕車安全。” 以市面上主流的HUD產品形態來看,C-HUD是第一代產品,因其成像效果差、成像尺寸有限且存在安全隱患,正逐漸被淘汰;第二代產品W-HUD在成像尺寸、成像質量等方面均有所提升,但W-HUD仍沒有從根本上解決成像距離近的問題。 第三代產品也就是AR-HUD,通過結合虛擬現實技術,成像距離更遠、成像效果更佳。 ![]() 圖片來源:思必馳 具體地看,AR-HUD的虛像更大。W-HUD可能只有7~9寸,或者是11~12寸,而AR-HUD一般是55寸起;目前W-HUD可量產的虛像距離大約2~3米,即車頭位置再稍微遠一點;而AR-HUD可以實現平鋪到路面,虛像距離超過7米。 視場角FOA方面,W-HUD大約能達到6×3°或者5×5.25°;AR-HUD起步基本就是10×4°或者9×3°,FOV通常會更大、更寬、更廣。相比之下,AR-HUD分辨率和畫面亮度也會更高。部分在量產車型上應用的AR-HUD分辨率已經接近2K水平。 在顯示畫面上,AR-HUD可以提供雙焦面,近處一個場,遠處一個景。然而體積上,AR-HUD則面臨著一個不小的問題,W-HUD的安裝體積大約為2~4L,AR-HUD的安裝體積大約在8L以上,整體需要車企預留足夠的安裝空間。 可以看到,從2020年奔馳全新一代S搭載AR-HUD量產上市,到2023年AR-HUD逐步普及至20萬元以內的車型,AR-HUD所帶來的新一輪人機交互革命已然上演。 在苗順平看來,AR-HUD主要給車載HMI的設計帶來了三大改變。 一是,AR-HUD因為能呈現更大的視場角和畫面,可以給HMI設計留出更多的自由度。但該如何利用如何進行布局是一項挑戰;二是,AR-HUD因為虛像距離可以更遠,基于虛實結合,可以有效降低視線離焦時間。通俗點說,是人可以看到更直觀的信息提示,而降低分神的可能。 還有一點,AR-HUD除了和語音結合,也可以和DMS等結合,實現創新的交互形式。此外,AR-HUD已越來越多的和智能駕駛相結合,目前其已經打通包括車輛偏離預警、ACC自適應巡航、AR導航、盲區監測、前車碰撞預警以及行人檢測等在內的六個場景,在提供信息便利的同時,保障駕駛安全。 試想一下,如果無人駕駛時代最終到來,或許一款AR-HUD就能夠滿足車內的屏幕需求。這實際也符合“軟件定義汽車”的發展需求。 智能汽車的發展與迭代離不開大模型、大數據還有大算力的支持,但歸根究底,底層技術創新才是推動產業革新的唯一驅動力,語音交互、AR-HUD僅是其中的一個代表縮影,更多的創新還需要產業鏈上下游協作推進。 |
![]() |
中國鍛壓網官方微信:掃一掃,立即關注!
關注"中國鍛壓網",獲取獨家行業新聞資訊。 添加方法1: 在“添加好友”中直接添加微信賬號:chinaforge 添加方法2: 微信中掃描左側的二維碼 |