IBM 發布的如何制作 TJBot、如何對它編程的指令集(被稱為“菜單”),在Instructables 線上開發者社交廣受好評。該計劃在社交主要頁面都有體現,并已收到 21,000 份用戶評論。TJBot 被各種層次的開發者所接受,從初學者到專家。大家用它來創建能學習、推理、與人自然互動的認知對象。
簡化設計──為開發者而開發
TJBot 計劃的初衷,是成為用戶體驗和試驗“具象化認知”的入門素材。“具象化認知”是指把 AI 技術植入到它已經在與之互動的設備、物體、空間里。如果這個過程夠簡單,用戶們會創造出什么來呢?會產生什么樣的設計思路?TJBot 幫助尋找這些問題的答案。做為大家都買得起的 DIY 工具,它把“具象化認知”的創新過程民主化。
為了這一目標, TJBot 計劃的一個指導原則是“簡單”。這在硬件零件和程序語言平臺的選擇上得到體現。從最基本的原型機工具入手,IBM 測試了各種 LED、麥克風、音響和伺服馬達;最后選擇出小巧、功能多樣但又容易上手的模型。同樣地,控制這些感測器的軟件使用 Nodejs 編寫,它是一個用 JavaScript 開發軟件應用的開源、跨平臺的執行環境。
借助傳感器和 Watson 達到多種功能:
做為原型機,TJBot 的技能正在不斷擴展:據雷鋒網所知,它現在已經能說話、進行語音辨識、揮手和跳舞。這些能力由它內建的感測器、以及一系列認知服務來完成。比如,TJBot 的說話功能由 Watson 文字到語音服務在軟件層面完成,然后透過音響播放出來。同樣的, Watson 語音到文字服務,以及 TJBot 的麥克風,組合起來使它能進行語音辨識。這些技能可以被進一步組合,創造出新的應用場景,比如說創建虛擬代理或者數碼助手。
目前,TJBot 在 Github 的工具庫包含 3 個基本“菜單”:讓 TJBot 對簡單語音命令做出回應的代碼,分析推文的情緒并回復,還有讓 TJBot 做為談話代理。社交的開發者們為它加入了兩個菜單:TJWave 和 Swifty TJ。TJwave 很有趣,它展示給開發者如何控制 TJBot 的手臂。它還包含額外功能:讓 TJBot 隨音樂“起舞”:TJBot 會播放一段音樂文件,提取其中的節拍和峰值,然后隨之揮手。控制 TJBot 的小短手還能用來使語音互動更生動,以及模仿人類說話時的手部動作。Swifty TJ 展示如何用 Swift 語言控制 TJBot 上的 LED。隨著 TJBot 的菜單目錄不斷擴大,Swifty TJ 為 Swift 開發者給 TJBot 寫代碼提供了出發點。
0 b: i% K5 K9 Y) k" L& h4 Y! h歡迎光臨 機械社區 (http://www.ytsybjq.com/) | Powered by Discuz! X3.5 |