谷歌的野心,全都藏在這款智能硬件裡瞭

10-18

在前不久的「Made by Google」發佈會上,Google 一口氣帶來瞭多款硬件新品,極客公園也在第一時間進行瞭報道。

其中兩款新手機(Pixel 2/Pixel 2 XL)和兩款新音箱(Google Home Mini/Max)獲得瞭較高的關註度,智能耳機 Pixel Buds 因為提供瞭實時翻譯的「黑科技」,也引發瞭不少討論。

相比之下,另一款名為 Google Clips 的便攜相機就被很多人忽略瞭。缺少漂亮的紙面參數(1200 萬像素相片,15FPS 視頻),同時不是大眾「喜聞樂見」的硬件品類,Google Clips 沒有什麼存在感也是意料之中的。

但不要就此輕視瞭 Google Clips。在這次發佈會上,Google 提出瞭「硬件 + 軟件 +AI」的產品戰略。Google Clips 雖然其貌不揚,但可能是這個戰略下最具代表性的一款產品。

可穿戴相機遇到的瓶頸

Google 官方對於 Google Clips 的描述是無線智能相機(Wireless Smart Camera),從形態上來說,可以把 Google Clips 劃分到可穿戴相機(Wearable Camera)的范疇。

Google Clips,圖片來自於 the Verge

實際上,可穿戴相機並已經不是什麼新鮮的產物瞭。在 2015 年前後,市面上(尤其是眾籌平臺上)曾出現瞭一大批類似的產品。在 Google Clips 上,也可以看到一些早前產品的影子。

這類主打便攜的產品往往沒有配備屏幕,但擁有比運動相機還要小巧的體積,借助背夾、磁力等方式進行固定後,可以通過定時拍攝等功能來記錄我們的日常生活。

Drift COMPASS

由於並非一個不可替代的產品,在功能上和手機、運動相機等拍攝器材存在較高的重疊度,可穿戴相機這個品類一直處於不溫不火的狀態。另一方面,更重要的原因在於,想要通過它們拍攝到滿意的照片,並不是一件容易的事情。區別於手機、相機「所見即所得」拍攝體驗,高頻度的拍攝方式(例如延遲拍攝)是可穿戴相機更加典型的應用。

一年多以前我在體驗一款國產廠商推出的可穿戴相機時,曾帶著它出去旅遊瞭幾次。坦率地講,硬件層面上我對它已經比較滿意瞭——照片 / 視頻的清晰度可以接受,小巧的體積夾在衣服上沒有什麼負擔,延遲拍攝下續航可以達到一整天。最大的問題其實在於拍攝後如何選出自己喜愛的照片。

舉例來說,如果把相機設置為每 30 秒拍一張照片,每小時就會產生 120 照片,一天下來內存卡裡可能就有幾千張照片瞭——如果沒有工具的輔助,從海量照片裡找到滿意的照片就比較麻煩瞭。

最後我從幾千張照片裡隻挑出幾張滿意的,而絕大部分都是「廢片」。成片率非比較低,照片管理起來又麻煩,讓我逐漸喪失瞭繼續使用下去的熱情。這不是一個個例,大多數可穿戴相機隻解決瞭如何方便拍攝的問題,但是對於照片的篩選、存儲和分享問題並沒有足夠的重視。

Google 想要用 AI 幫你拍照片

當然,也有廠商意識到瞭這個問題。為瞭提高相機的成片率,可穿戴相機領域出現瞭兩種改進方式。一種是上傳拍攝的照片到雲端進行分析,後臺自動去除重復照片,篩選出更出色的照片。可穿戴相機領域的明星產品,由瑞典初創公司推出的 Narrative Clip 2 就實現瞭類似的功能。

不過雲端處理的問題在於增加瞭產品使用的復雜程度,而且也依賴於廠商在算法上的持續投入(這對於初創公司來說並不容易)。實際上,Narrative 已經於去年 9 月停止瞭產品的銷售,未來將有償為相機提供雲服務(每月 2 美元)。

Narrative 的產品線

另一種則是讓相機在「合適」的時間點拍攝,減少廢片出現的概率。例如此前眾籌平臺 Kickstarter 上出現瞭一款名為 Benjamin Button 的產品,它可以在監測到環境變化時(聲音、活動、人臉識別)自動開始拍攝(最新進展:Benjamin Button 已經取消瞭眾籌)。

Google Clips 則更進一步,它會基於人臉識別(表情)、光線和取景效果等判斷要素,自動選擇要拍攝和保留的精彩瞬間,所有的一切都是自動完成的。根據 Google 官方介紹,隨著使用次數越來越多,它還會變得更加智能。

圖片來自於 the Verge

如果你使用過 Google Photo,應該領略過「智能助理」功能的強大,它會利用人臉識別進行分類,也能從視頻中篩選出精彩的片段。某種意義上來說,Google Clips 就像是 Google Photo 的「實體版」。

今天(10 月 17 日)Google Photo 更新後支持寵物的精確識別,而 Google Clips 同樣也可以實現這個功能,不過這一切都是在本地完成的。

Google Clips 使用瞭一顆 Movidius(已被英特爾收購)的 Myriad 2 視覺處理單元(VPU),和大疆的精靈 4 上使用的是同一款芯片。正是這塊 VPU 和加入,在硬件層面為 Google Clips 增加瞭機器學習的能力(Google 稱之為 Moment IQ)。

比硬幣還小的 Myriad 2

和雲端方案相比,本地化的圖像處理方案具有低功耗、低延時、離線使用等優勢。Google Clips 減小瞭對網絡的依賴,進而強化瞭它隨時隨地使用的特點。你要做的隻是保證它的電量,打開開關,放在一個合適的位置,具體的拍攝就不需要費心瞭。雖然 Google Clips 依然提供瞭物理按鍵用於主動拍攝,但這就像 F-22 戰鬥機上的航炮一樣,更多時候隻為瞭「心理安全」的需要。

Movidius 團隊的負責人 Remi El-Ouazzane 表示:「Google Clips 代表瞭當前板載人工智能(onboard intelligence)的最高水平,這也是我們開發出 Myriad VPU 後所期待出現的應用。」

實際上,這已經不是 Google 第一次和 Movidius 合作瞭。早在 Movidius 被英特爾收購前,在 Google 研發 AR 項目 Project Tango 時就使用瞭 Movidius 的芯片。這次在消費級產品上搭載機器學習相關的硬件和技術,Google 使用 AI 重新改造瞭一個硬件品類。

目前通過在移動設備中增加深度學習專用的芯片,已經成為增加產品 AI 能力的一個重要手段(例如華為麒麟 970 和蘋果 A11 Bionic 已經在 SoC 層面進行瞭設計)。Google Clips 一旦試水成功,未來 Google 集中在算法和數據上的優勢為其他硬件品類賦能,將會直接和傳統僅關註硬件 + 軟件體驗的產品拉開距離。

人與機器的控制權的交接

Google Clips 用戶體驗負責人 Eva Snee 向外媒 the Verge 分享瞭一個典型的使用場景:

當他們一傢人出去度假時,大人們在屋裡聊天,孩子們在外面看書,他們前面擺著 Google Clips。盡管沒有刻意去拍照,但 Google Clips 已經幫助她記錄下瞭孩子們在一起的時光。

另外根據外媒的體驗,Google Clips 會增加「熟臉」的拍攝頻率,減少對於陌生人的拍攝,這進一步明確瞭它最佳應用場景就是在傢庭生活中。

在技術上,Google Clips 已經和傳統的可穿戴相機拉開瞭差距,但歸根結底它仍然不是一個必需品。對於那些有孩子、寵物的傢庭來說,Google Clips 或許會是一個不錯的生活記錄設備(Lifelog)。如果沒有足夠多值得記錄的人或物,可供它施展的空間也就小瞭很多。

另外,由於設備比較小巧(60.5g),而且能夠自動拍攝,Google Clips 引發的隱私問題也值得關註。Google Clips 發佈後,Elon Musk 曾在 twitter 上進行瞭質疑,評論中也引發瞭廣泛的討論。

Google 官方表示,Google Clips 所有的數據都是在本地進行處理(16GB 存儲空間),不會泄露隱私。但避免讓它出現在「不合適」的場合,至少目前仍然依賴於每個 Google Clips 使用者的自律。

實際上,Google Clips 很難憑借一己之力去改變可穿戴相機不溫不火的市場狀況,考慮到它 249 美元的售價,或許也不會成為一個火爆的單品。

但如果把視角再拉遠一些,這款設備實際上開啟瞭一種全新的拍攝方式——以往我們拍照時,按下快門的時機依賴於拍攝者主觀的判斷,現在則把控制權完全教給機器,依賴於機器完全客觀的判斷。

在 AI 技術的推動下,人與機器控制權的交接在各行各業都在發生著。自動駕駛領域在進行方向盤的交接,智能傢居是遙控器的交接,而 Google Clips 的背後其實是快門鍵的交接。AI 賦予硬件更多的控制權,在參數之上建立更高維度的競爭優勢,將是未來智能硬件發展的一個趨勢。從這個角度來看,Google Clips 也許才是真正意義上「智能相機」的起點。。

精彩圖片
文章評論 相關閱讀
© 2016 看看新聞 http://www.kankannews.cc/