本文由速途網《sootoo123》原創
作者 / 喬志斌
北京時間6月6日凌晨,蘋果WWDC 2023全球開發者大會正式開幕,作為蘋果一年一度的開發者盛會,不僅迎來了iOS、iPadOS、tvOS、macOS、watchOS等一系列新系統以及新技術的發佈,同時也迎來了M2 Max、M2 Ultra兩款桌面級芯片,預示著蘋果Mac產品線開始全面轉向自研芯片。
而作為『One more thing』登場的Apple Vision Pro,更是將所有人的興趣點直接引向高潮,成為近年來最受關注的蘋果產品。
Apple Vision Pro殺入XR市場,蘋果『出場即王炸』
作為幾乎不在人前提及『元宇宙』的蘋果公司,如今靠著Apple Vision Pro殺入元宇宙領域,不得不讓行業感嘆,其作為全球市值最高的科技公司,那令行業望塵莫及的產品設計能力,與品牌號召力。
蘋果公司CEO庫克表示,『Apple Vision Pro將帶我們進入空間計算時代,這是一個偉大歷程的起點,一個強大個人化科技的全新維度』
圖為Apple Vision Pro
圖為Meta Quest2
首先在設計上,Apple Vision Pro采用了環繞式的頭帶設計,相比市面上XR很多為了分攤重量而采用頂部頭帶式的『發型毀滅者』設計,對於燙頭愛好者來說要友好得多。
而為了解決XR產品的『沉浸感』難題,蘋果用做VR頭顯的方式,打造了一臺AR頭顯。
Apple Vision Pro完全放棄傳統AR眼鏡顯示畫面與現實場景疊加的方式,轉而采用攝像頭捕捉場景,並通過內置雙目定制的高素質Micro-OLED屏幕映射現實場景,實現了視頻上的『通透模式』。
這樣做,成功避免了傳統AR頭顯在強光下顯示不清晰的問題。
當然,用戶還可以通過撥動數碼旋鈕,實現現實場景與虛擬場景的切換,當用戶切換至虛擬場景中,就仿佛在視覺上開啟了『降噪模式』,大幅提升了使用的沉浸感。
雖然實現形式與目前VR行業普遍采用的VST《Video See Through,視頻透視》功能並無二致,但蘋果在傳感器的堆料上,卻可以用『喪心病狂』來形容。
Apple Vision Pro正面共搭載了6顆常規攝像頭、2顆深感攝像頭、2顆紅外發射器,以及一顆LiDAR《光學雷達》構成,能夠以極高的速度捕捉外部場景與手部動作。
內部則由4顆紅外攝像頭以及LED照明模組構成,用以捕捉眼神的移動。
此外機身內部還內置了5枚傳感器與6個麥克風,分別進行用戶頭部動作和聲音的捕捉。
而想要同時驅動大量的傳感器,蘋果還從芯片層面開始定制,為Apple Vision Pro搭載了M2芯片,強大的算力能夠執行先進的計算機視覺《CV》算法,全新的R1芯片專門負責處理來自攝像頭、傳感器和麥克風的輸入,將圖像在12毫秒內傳輸到顯示屏上,實現幾乎無延遲、實時的視界觀感。
這也讓Apple Vision Pro實現了不需要額外的手柄外設,僅通過頭顯對於眼神、手指、語音的捕捉,便可以實現大部分的操作。
另外,Apple Vision Pro所搭載的M2芯片,更是為設備提供了強大的性能。
相比市面XR設備普遍采用的高通驍龍XR2芯片,M2的CPU性能是前者的2.5倍,GPU性能更是前者的5倍。
配合深感鏡頭,Apple Vision Pro能夠直接錄制3D視頻。
至於佩戴XR設備時的『社交』難題,蘋果給出的答案是『EyeSight』功能,通過一塊向外的屏幕,可以展示你的眼睛,讓附近的人知道你是否在使用應用程序或完全沉浸在體驗中。
而當有人接近時,Vision Pro會在畫面中讓用戶看到對方,並向他們展示眼神。
用眼神的專註,解決社交的尷尬。
事實上,在速途網看來,Apple Vision Pro相對於XR行業現有困局的多點突破,源自於『不惜成本』:一個軟硬件實力皆強勁的企業,在產品上死命堆料的結果,而代價是3499美元的高昂售價,這也充分體現了蘋果強大的行業號召力,以及充足的現金流,給予了蘋果定價的勇氣。
而Apple Vision Pro的發佈,也給了行業一些思考:我們看似始終到達不了的那個『元宇宙』,並非遙不可及,隻是我們需要更多的能量,用產品改變世界的能量。
內卷改變不了世界,但創新可以。
Apple Vision Pro將於2024年年初逐步開售,高昂的價格以及近一年的準備期,也為其他XR企業預留了發展的空間。
一方面,蘋果在等待開發者構建成熟生態的時間裡,也為其他廠商提供了產品轉向的機會;另一方面,3499美元之下,充分的定價空間,也讓更多XR廠商們能夠現在現有的技術條件下,做出Cost Down的產品,豐富XR市場,帶來XR市場的繁榮。
除了驚艷的Apple Vision Pro,作為目前大熱的AI技術領域,蘋果也小小地秀了一下肌肉,發佈了多項基於AIGC、語言模型、機器學習等方面的技術,展示了蘋果這家看似平時不怎麼與AI搭邊的公司,不容小覷的AI實力。
AIGC、語言模型技術亮相,蘋果AI積累不容小覷
AIGC生成人像
在使用Apple Vision Pro進行FaceTime視頻通話時,由於沒有朝向用戶的攝像頭,而用戶佩戴XR設備,也會讓用戶看上去非常奇怪。
為此,蘋果通過Apple Vision Pro前置鏡頭掃描人臉信息,基於機器學習技術,系統會使用先進的編碼神經網絡,為用戶生成一個『數字分身』,並動態模仿用戶的面部和手部的動作,甚至可以保留數字分身的體積感和深度。
使用的簡易性和效果甚至超越了目前市面上的一部分數字分身軟件。
更加智能的輸入法
眾所周知,XR行業目前最受詬病的困局之一,便是輸入方式的匱乏,無論是手柄的單鍵輸入,還是浮空鍵盤的輸入方式,無論在效率與精度上,相比實體鍵盤,體驗都十分糟糕。
而Apple Vision Pro主要互動方式為眼神、手勢和語音,這就意味著語音輸入可能將成為Apple Vision Pro最主要的鍵入方式之一。
雖然蘋果並沒有在Apple Vision Pro介紹中強調輸入法,但是在iOS 17的介紹中則提到了更加智能的輸入法,不僅可以糾正拼寫錯誤,甚至還可以糾正用戶在輸入過程中的語法錯誤。
自動更正的單詞會被臨時下劃線標記,讓用戶清晰地知道哪些單詞被更改了,並且隻需輕觸一下即可恢復到原始單詞。
更為重要的是,基於設備端的機器學習,輸入法還會根據用戶每一次的鍵入自動改進模型。
將輸入法的自動糾正功能達到了前所未有的準確度。
此外,基於最前沿的單詞預測Transformer語言模型,單詞聯想功能 可以非常快速地輸入下一個詞,甚至是完整的句子。
而這種極為個性化的語言預測模型,也可以讓輸入法更加了解用戶的語言習慣,也能在用戶使用語音,輸入的時候大幅提高輸入的準確性。
全新的『手記』App
伴隨iOS 17發佈的,還有全新的『手記《Journal》』App,能夠利用設備上的機器學習技術,根據用戶的照片、音樂、鍛煉等信息為您創建個性化的回憶和寫作建議。
App會根據這些信息為您提供適合您的時刻進行記錄和書寫的建議。
這意味著基於iPhone的算力,設備已經能夠部署本地化處理文字、圖片等多媒體內容的語義理解能力,同時具備一定的生成式AI功能。
場景與動作識別能力
除此之外,例如空間音頻的計算、眼球動作以及手部行為的捕捉,這些也是人工智能技術所發力的領域,蘋果憑借著M2和R1兩顆芯片提供的算力支撐,實現了人工智能順利的本地化部署,充分體現了蘋果在消費電子領域人工智能應用的能力。
盡管在WWDC 2023上,蘋果並未過度強調其AI能力,但從產品功能的方方面面來看,其AI能力卻已經深入滲透到其產品的各個細節中,成為改進用戶體驗的重要手段。
作為全球最具影響力的科技公司之一,盡管蘋果沒有過多宣傳其在人工智能方面的成就,但 你蘋果擅長一鳴驚人的產品風格來看,其在人工智能領域的實力仍然不容小覷。