利用深度學習做語音交互的開發者, 很可能對兩個穀歌的產品特別關心:
五月初, 穀歌 AIY 項目(“Artificial Intelligence Yourself”)的首款產品——Voice Kit 面世。
Voice Kit 套件可借助 Google Assistant SDK 和 Cloud Speech API,
上周, 穀歌 AIY 和 TensorFlow 團隊開源了語音命令資料集。 該資料集包含數千個志願者對 30 個命令短語 65000 次長約一秒鐘的發音。 開發者可借此創建最基礎的語音交互應用。
近日, 好消息來了。 穀歌將把兩者結合, 下個版本的 Voice Kit 會內置語音命令資料集。 用新版的 Voice Kit, 開發者可直接搭建能用簡單語音命令交互的 DIY 設備, 不需要設置以某個按鈕開啟語音交互功能, 也不需要聯網。
如果等不及, 你可能就不得不自己動手了。
穀歌表示, AIY 專案的最終目的, 是“讓開發者進行實驗, 製作能理解人類語音、視覺和動作的設備”。
雷鋒網還得到消息, 下一步, 穀歌將推出能與 Voice Kit 配套的視覺、動作檢測工具。 AIY 專案將會向大家提供具備“眼睛”“耳朵”“嗓音”“平衡”功能的開發套件, 創造簡單但強大的人機交互。
三個有意思的 DIY 案例
“1986 Google Pi 對講機”
受老式對講機的啟發, Martin Mander 用 Voice Kit 搞出了這麼個玩意兒:
他稱之為 “1986 Google Pi 對講機”。 這是一個“掛在牆上的谷歌語音助理”, 硬體包含樹莓派3、穀歌 AIY 的 Voice Kit,
DIY Dalek
英劇《神秘博士》的粉絲可能會喜歡這個:Tom Minnich 搞了個 Dalek 嗓音的語音助理。
當他問:“生命的意義是什麼?”
“Dalek”回答道:“我有生產商的質保, 所以用不著考慮這種問題。 ”
網路直播收音機
Victor Van Hee 用 Voice Kit 開發了一套語音控制的網路直播收音機,