《映維網Nweon 2022年12月02日》專註於為AR可穿戴硬件開發高速人機界面的芯片初創團隊Ixana日前宣佈,已完成由Uncorrelated Ventures、Samsung Next、Evonexus、Paradigm Shift和Hack VC等提供的300萬美元種子輪融資。
同時,團隊表示將在2023年1月舉行的CES大會展示基於自研芯片的AR參考頭顯。
Ixana認為,我們目前與智能手機的交互主要是通過一塊6英寸的小屏幕,而當前的人機交互《HCI》速度緩。
在團隊看來,更快的調制解調器帶來了Web1.0,更快的蜂窩數據帶來了Web 2.0,而更快的HCI將有望帶來一個全新的市場。
所以,由出身於英特爾、高通、Silicon Labs、德州儀器等企業組成的團隊專註於可以研發加快HCI速度的分佈式計算,並已經構建了『通過分佈式計算解鎖聞所未聞的可穿戴功能的YR11矽芯片』。
據介紹,YR11的能效提升100倍《但沒透露比較對象》,可以實現全天候可穿戴AR功能。
他們評價道:『Ixana正在通過突破性的矽芯片來挑戰可穿戴硬件的局限性。
我們的芯片令高速人機界面《如全天可穿戴AR》成為可能。
利用無線分佈式計算,我們的低功耗AR頭顯一次充電就能持續一整天。
即便配備了一個始終前置的攝像頭,它都可以檢測你所看到的內容、分析並實時提供反饋』
參投機構Evonexus的聯合創始人羅裡·摩爾《Rory Moore》表示:『在看過早期原型的演示之後,我看到了這項技術有望在可穿戴設備未來發展中發揮關鍵作用的巨大潛力』
在完成種子輪融資後,團隊表示計劃在2023年1月舉行的CES大會展示基於YR11的AR參考硬件。
延伸閱讀:高通發佈驍龍AR2 Gen 1 SoC,性能提高2.5倍,支持WIFI-7無線超低延遲
值得一提的是,高通早前為AR發佈的驍龍AR2 Gen 1 SoC同樣采用分佈式計算架構。
由三枚芯片組成的驍龍AR2屬於4nm制程,並如同上圖所示采用了由AR處理器、AR協處理器和連接平臺組成的多芯片架構。
其中,AR處理器位於右鏡臂,連接平臺位於左鏡臂,而AR協處理器則位於前端鏡架中央。
據介紹,利用這種分佈式架構,眼鏡端主處理器占用的PCB面積減少了40%,但整個平臺的AI性能提高2.5倍,功耗降低50%,從而幫助實現了功耗<1W的AR產品。
這允許用戶長時間舒適佩戴,並滿足消費者和企業用例的需求。