智能網聯創新用戶體驗

發布人:系統管理員發布時間:2019/12/06

6、(1)華為技術有限公司職能座艙規劃總監 潘穎欣《智能網聯創新用戶體驗》.jpg

各位領導、嘉賓大家中午好!下面我給大家分享這個題目是智能網聯創新用戶體驗,這個題目基本上已經點題,如果要創造一個顛覆性的汽車的用戶體驗,智能化和網聯化是一個必由之路,智能化就是我們大家熟悉的AI,就是人工智能,網聯化就是把汽車聯入互聯網,會獲得更好的服務。

整個材料分兩個部分第一個就是汽車的用戶體驗的現狀分析,針對這樣的一個現狀我們如何去改變?

大家都已經形成了一個共識,汽車的整個發展其實是走向一個相對集中的意義架構,總的來說我們現在把汽車分成兩個部分,一個是CDC就是智能座艙,另外一個就是MDC這是自動駕駛的核心領域。作為一個形象的比喻,CDC和MDC好比是汽車的兩個大腦,CDC是以人為中心,是以人為中心,而MDC是以車為中心,就是自動駕駛是負責把人從A送到B,安全送達B,可以從L1到L5的自動駕駛狀態,是以車中心。

我今天主要講CDC,這個是域是以人為中心,既然以人為中心,那么它通過感知人、車、路三個方面的數據,然后綜合做一個決策,然后做這個控制,使人的整個駕乘的體驗,會更好更安全。

智能座艙的發展大家回顧一下非常類似于我們現在的發展非常好的一個產業,就是移動互聯網,其實在座的如果是35歲以上的人應該是經歷了這個照片里的移動互聯網發展的過程,其實2000年左右那時候大家拿的手機可能都是2G手機,主要就是發短信和語音,到了2007年如果回想起來大家都清楚iPhone1在這年推出,iPhone引領了整個智能終端的顛覆式的用戶體驗,第一個就是觸屏,第二個把所有關于移動互聯網在手機上的應用APP化,并且可以從商城上直接下載,就這兩點足以顛覆了整個手機的由功能機向智能手機的轉變。

第一個就是APP的數量從2007年一直到2019年整個活躍在移動互聯網生態上的APP數量,增加了7萬倍。也就是現在的不管是IOS生態還是安卓生態,整個APP的應用都是百萬級的,尤其是活躍在安卓系統上的開發者團隊,大家可以采到數量多少嗎?包括個人用戶的開發者大概有千萬級,就是千萬級的開發者的生態支持了百萬級的應用。

支撐手機的智能化,另外一個重要的標志就是芯片,芯片的整個主屏的提升120倍,從以前的功能機只有一個CPU的內核,發展到今年第12代的內核,有CPU、GPU、NPU,從這個功能上實際上分內核了,這是整個移動互聯網在過去20年的發展,我想說的是非常類似于我們將來汽車整個用戶體驗所走過的的話,有大概率會走這樣的發展道路。

2000年汽車的智能座艙就是模擬的座艙,所有的按鍵包括旋鈕都是擊鍵式的,隨著技術的發展出現了液晶屏和語音交互等等,朝著數字化和智能化的方向演進,基于現在行業整體的現狀的話我們做出了一個判斷。

截止到今年為止,我們覺得整個座艙的發展還處于一個從功能座艙向智能座艙轉變的萌芽狀態,其實現在路上跑的汽車盡管也配了很多的屏幕、液晶屏也有語音交互,總的來說不是一個嚴格意義上的智能座艙。

大家平時開車有這樣的開車,看著前面司機的導航很大的屏幕不用,還是把手機打開,為什么?因為用戶體驗不好,總的來說現在座艙的發展還不盡如人意,怎么樣改變這個現狀還是需要大家思考的,我現在給不出來什么是智能座艙?標準是什么?我也給不出來標準,需要大家一起探索需要業界制定出這樣標準,像未來的智能終端一樣。

這是一些公司做的近三年的用戶調查,也搜集了很多的問題,痛點問題有幾百個,找出一些規律性的問題,就是核心痛點。我們需要我的車提升用戶體驗,把用戶體驗排在第一位,因為人是操作方向盤,手機上可以觸屏,但是在車上不可以。

另外就是手機跟車機的互聯,就是大家俗稱的投屏,人現在的生活習慣離不開手機了,我們平常使用的場景到車上需要有一個無縫銜接,手機上的功能音樂等等的服務功能到車上有一個延伸。

另外一個就是我的智能座艙需要提供服務,因為車的定義是什么?一定要安全。如果你的智能座艙能夠給我的駕駛提供安全的行車體驗這個毫無疑問是非常重要的。這個是三類,語音交互、手機、車機互聯,還有安全的行車體驗。

總的來看,從現在的所謂的功能艙和智能艙的萌芽轉化來看,核心痛點分三個方面。第一個就是危險無判斷,我即將可能要產生風險的時候沒有任何的提示;第二個就是服務不主動,車就是冷冰冰的機器,沒有任何的交互,不懂你;第三個就是交互體驗差,我說了一句語音,它不理我或者我說了一個叫為復雜的語意的環境它不理解什么意思,可能交互時間長了你就不去用了。

另外就是隨著這個車的使用和情景模式的轉換或者增加出現一些卡頓的情況等等,另外一個從開發者的角度來看,我去坐這個車機,從廠家拿這個開發板做這個東西,我首先看這個車機是什么樣的操作系統,我把這個操作系統拿過來以后,你在車機上有哪些生態可以移植?生態很重要,就意味這服務,我可以得到什么服務。

所以說將來的車機如果走向類似于智能終端的路,基于操作系統的生態是很重要的,我不敢說將來智能座艙的生態,能夠達到安卓千萬級的開發量和百萬級的APP,我不敢這樣說,就目前發展態勢來看,可能沒有那么廣,現在APP的應用將來如果在汽車上能夠成為一種智能網聯汽車的發展階段的話,那么應用的類型一定會是爆發式的增長。

如何來解決這些問題?然后創造一個良好的用戶體驗?

我簡單普及一下智能座艙的情景智能的概念,就是說為什么要講情景智能?大家用手機劃到負一屏的時候,這四個字大家應該是比較熟悉的,大概簡單說一下。因為車里和車外有很多傳感器,如果你是自動駕駛的話,車周圍有很多雷達、紅外包括攝像頭,車內也有攝像頭、無線、麥克風、藍牙等等,傳感器是感知數據的,就座艙的角度來看有三個方面,第一個人是的數據,包括駕駛員、座艙后面坐的人甚至包括你的副駕。

另外就是環境數據,有道路的數據、天氣的數據等等,會結合時間包括車輛的使用的狀態、電池數據也有,BCM的信息也可以傳過來等等。融合了數據以后,那么結合你所處的駕駛的場景,因為AI的東西需要一定的知識背景的,不了解的情況下可以通過語音獲取一些相關的背景知識,結合剛才的情景會激活應對于你當時所處的場景的服務,這就是簡單來說情景智能的概念。

我簡單舉一個例子匹配剛才說的情景智能的場景,就是我分了三段開車前、行駛中、停車后都有哪些。比如說開車有的車可能有B柱,我現在不用這個,B柱相當于人臉識別。上車了以后我跟車機來一輪語音對話,還輔以一些手勢開始開車前假想的情況。包括收拾識別、人臉識別還有語音交互,其實都要消耗CDC域里的芯片語言的能力叫算力。

包括兩個方面,比如說人臉、視覺識別既有GPO的能力,也有NPO的能力,簡單來說比如說人臉的動作大約消耗0.05T的TFLOS。多輪語音就是0.5T,開車這樣一個動作大概消耗1.45個T,在行駛過程中,你可能繼續跟這個車機互動,這時候還是會產生多輪的語音對話。

還有一個重要的功能就是在行駛過程中,就是駕駛員監控系統,第一個就叫分神檢測,第二個叫疲勞檢測,分神很好理解,開車的時候注意力不集中,低頭看手機,這時候的DMS系統檢測到你分神,會有一個綜合的算法,也時候發出一些友善的提示比如說注意你的駕駛姿態容易出事等等。

第二個就是疲勞,疲勞比分神更難了,要結合你的臉部特征,甚至你的眼神,要最終你的視線的眼神,攝像頭會精準感知到。甚至酒駕、毒駕都可以檢測到對于你的整個眼神,包括你的大數據分析有非常高的要求,對算力的要求更加高。單單是支持分神和疲勞檢測大概是3.57T。停車后比如說你的車臨時停在一個路邊了,旁邊有一個指示牌此處禁止停車或者停半小時等等,有時候駕駛員不關注,這時候車外的攝像頭或者觀感器已經把這種模式識別出來了,然后進行友好的語音提示,請注意你的停車時間進入半小時等等,這些都是情景智能的服務,如果這些東西做好了的話,駕車的安全體驗更好。

比如說路邊停車安全提示,路邊臨停的時候我立馬做一個動作就是拉車門下去,最危險的就是比如說后面來一個行人或者騎電動車的,開車門的同時會撞上,比如說有后方的攝像頭把這樣危險的場景傳給座艙,座艙會發出友善的提示,或者發出一個控制指令鎖住車門,但是提醒沒有任何問題的,注意車后面有一個電動車開過來了,請先不要開車門,都可以提升你的安全駕駛體驗的,所有的東西都是基于你整個座艙的芯片算力。

因為情景智能的東西太多了,甚至可以由100種,這張圖我想給大家傳遞一個概念,這輛車從你買到變成二手車,大概是5.5-6年,汽車的使用其實遠比我們智能終端的時間長手機我們可能換頻繁一點,兩年就換了,但是汽車不會的,至少伴隨5到6年。其實整個情景是智能演進的,在垂直和水平兩個方面,第一個就是水平面的算力增長,隨著情景智能的功能不斷疊加,初期只有三種情景智能的交互,隨著我的使用年限增長,到最后有分神、臨停、路況引導、甚至毒駕、酒駕甚至再往后上ARHUD等等,一個車的使用的周期內,算力的要求非常高。U

總的來說總結剛才說的,結合智能座艙感知就是四個方面,第一個就是安全,智能護駕,第二個就是座艙娛樂和生活的方面,就是娛樂和生活,第三個是智能交互,在座艙里把直覺系統和生產音效做好了以后,隨著駕駛的普及,智能座艙會不會成為移動辦公的艙室?是可以開辦公視頻會議的地方。第四就是車輛服務。

下面我簡單介紹一下剛才說的這四個方面,第一個就是感知與決策控制系統里的智能交互。分兩個方面,第一個就是語音交互,其實現界的交互就是語音識別已經做的很不錯了,國內科大迅飛漢語為基礎的語音識別已經做的非常不錯了,這個人說話帶一點口音的普通話也可以識別,國際上就是米昂斯,他的英語包括其他的小語種做的不錯,語音識別是比較不錯了。              

但是語音識別就是說一句話翻譯成文字,翻譯的過程沒有問題,但是翻譯出來以后機器還是不理解,叫語意理解,語意理解非常難。比如說人的說話經常會變,比如說“小王,走起”,“走起”是什么意思?他不知道,人工智能最大的特點就是要不斷學習。

另外一方面就是手勢交互和人臉識別,要拿到良好的用戶體驗,他的識別和準確率有什么樣的要求。

另外一個就是智能護駕,第一個就是疲勞、分神。第三個就是身體狀態檢測,比如說現在的網約車,網約車司機其實是一個勞動強度非常大的行業,因為經常是開十幾個小時以上的車,這個群體的身體狀態是非常重要的。這個時候我們想了一個例子,現在很多的運動手表包括蘋果、華為,蘋果的心率檢測已經獲得美國FDA認證了,檢測心率是非常準的,這時候是不是可以結合手表的心率檢測做適當的提醒,當駕駛員的駕車身體狀態出現異常的時候,出現提醒甚至撥叫緊急電話等等。

另外舉一個例子就是360環視,比如說倒車,行駛過程中觀察行車和路況等等。這個也是跟安全相關涉及到座艙另外一個就是CMS,就是座艙系統,其實歐洲去年已經立法,座艙不但前面有一個監控攝像頭,但是看不清楚,包括汽車的后艙也要有攝像頭,國內沒有看到,這塊主要用來監測艙內的遺留物。我們經常看到報道粗心的家長把小孩子落在車上,高溫不透氣導致一些悲劇。

這時候當駕駛員離開以后,座艙有一個“哨兵模式”,比如說每隔5分鐘掃描一下進行活體檢測,比如說看看是不是有寵物或者兒童遺留在座艙里,這個功能做好了可以避免很多悲劇,這個就是辦公系統,這是需要整個生產音效和視覺識別體驗做的非常好,大家才會去用。

這個是車的服務,跟行車相關的所謂的五大服務,維保、停車、充電、違章、保險這是汽車具備互聯網的能力,要聯網基于云的服務推送,包括賬號綁定等等一些功能。

因為我們手機上生態非常多,我們想通過快應用直接通過手機投屏的方式帶到車里了。

除了剛才的情景智能以外,構建一個基于車的開放和中立的服務生態是非常重要的。但是這個服務生態就是剛才說的分兩個方面,第一個就是車上會有一些比較高頻的服務,比如說音樂、導航,這些服務的話我們給它起了一個定義叫原子化服務,比如說音樂在車機上不合適裝一堆音樂,什么騰訊音樂、QQ音樂、華為音樂,裝一推,每一個APP有一個獨立的入口,我們認為這種狀態在車上的服務體驗不好,就是我們定義一種服務就是原子化服務。在車上就是音樂,你點開這個音樂就有歌曲,來自哪里你不用關心。在云端做一個HAG服務聚合,至于服務的來源你不用關心,你只要關心打開的是音樂我們認為這種原子化的服務在車上才是最重要的服務體驗。

另外就是導航,導航現在首要看的就是我怎么拼得過手機?如果一個智能化的汽車司機在有座艙的車上頻繁用手機的話,我認為這個智能座艙還是失敗的。在車的導航憑什么用戶體驗好于手機?因為有人說屏幕大,第二個就是導航可以更新,第三個方面如果經過深度定制的導航服務,我一定會做的比手機有優勢。

比如說我舉一個例子,如果我的一個導航系統裝在車上了,比如說轉彎的時候有盲區,這時候我打開一個地圖,我的車的側方位的攝像頭打開跟導航做深入結合的時候,轉彎的時候通過攝像頭的圖象數據在地圖上呈現出來,如果簡簡單單這樣的舉措,我相信很多司機用車上的導航,因為很多額外的東西是手機不具備的,就是高頻的這些服務一定要在車上做深度定制的,這是我們的觀點。

另外就是長尾的應用就是跟你的用戶體驗不是強相關的,就是做普通的服務,這時候可以通過手機投屏的方式完成。

如果要構建車內的顛覆式的用戶體現,以下兩個工作我們覺得是必不可少的。第一個就是要具備以情景智能為中心的智能座艙的體驗,并且這種情景是可以演進的。

第二如果要獲得良好的行車服務,要做一個深度定制化的車相關的應用服務,其他的一些快應用比如說長尾應用可以通過手機的引入方式來完成。謝謝大家!


關于我們 網站地圖 版權聲明 人才招聘 聯系我們

中國質量協會 版權所有
Copyright?2003-2008 All rights reserved 京ICP備05018279-1 京公網安備 110102000185

彩神网