當你長時間玩手機時,如果手累了怎么辦?換一只手繼續刷?
如果另一只手也累了呢?再換回另一只手?
或許,大可不必這么麻煩。
你只需要通過一個簡單的眼神,就可以玩轉你的手機。
比如,選擇并打開某一個應用程序;
(素材來源:YouTube)
查看手機中的一張照片;
(素材來源:YouTube)
打開或關閉歌手泰勒·斯威夫特(Taylor Swift)的一張音樂專輯;
(素材來源:YouTube)
?切歌、查看歌詞、調節音量;
?
(素材來源:YouTube)
?又比如,查看、標記老板發給你的電子郵件等。
(素材來源:YouTube)
凡是你的眼神能觸及到的地方,手機屏幕上都會呈現出對應的實時反饋。
是不是很酷很帥?但這并不是科幻。
以上場景實現來自來自卡內基梅隆大學(Carnegie Mellon University)人機交互學院的科研團隊,他們開發了一種名為 EyeMU 的工具,該工具允許用戶通過凝視控制(gaze control)和簡單的手勢操控智能手機。
相關研究論文以“EyeMU Interactions: Gaze + IMU Gestures on Mobile Devices”為題,發表在 ICMI 2021 會議上。
當前,隨著智能手機功能的愈發強大,人們可以使用手機做越來越多、越來愈復雜的事情,而不僅僅是觀看影視劇、編輯視頻、閱讀新聞、社交和打游戲等。
但是,長期不離手的手機,依然需要人們使用單/雙手和語音命令來操作。在一定意義上,有時候會顯得不是很方便。
那么,有沒有一種更自然的人機交互方式呢?
Andy Kong 是卡內基梅隆大學計算機科學專業的一名大四學生,一直以來便對眼球追蹤(eye-tracking)技術非常感興趣,但由于商用版本過于昂貴,就自己動手編寫了一個程序,利用筆記本電腦內置的攝像頭跟蹤用戶的眼睛,進而在屏幕上移動光標。
在 Kong 看來,如今的手機只有在我們要求它們做事情時才會做出回應,無論是通過語音、輕敲,還是點擊按鈕等。如果手機可以通過分析用戶的目光,或借助其他生物識別技術來預測用戶想要做什么,將大有用處。
正是這一個“廉價”的程序,為 EyeMU 的最終實現打下了基礎。
在隨后的研究工作中,Kong 及其同事通過使用谷歌的 Face Mesh 工具來研究用戶注視屏幕不同區域的注視模式,并繪制出了地圖數據,從而改進了這個早期原型。
之后,他們開發了一個凝視預測器(gaze predictor),這一工具使用智能手機的前置攝像頭鎖定用戶正在觀看的內容,并將其標記。
圖|通過眼睛控制為照片加濾鏡(來源:該論文)
最后,他們通過將凝視預測器與智能手機內置的運動傳感器相結合來實現命令,從而提高了 EyeMU 的效率。
圖|EyeMU 的部分手勢(來源:該論文)
例如,用戶可以通過長時間查看某一內容,將其標記為目標,然后向左滑動手機來關閉它,或向右滑動手機來響應;同時,用戶還可以通過把手機拉得更近來放大圖片。
盡管 EyeMU 的功能很酷,但在面向消費者之前,依然還有一些關鍵限制因素需要克服,比如凝視模塊的準確性不足(低于目前專用的眼睛追蹤器),仍需在更多設備上進行測試,以及可能比較廢電池等。
另外,學術君也不禁想,如此酷炫的操作,會不會更費眼睛呢?
但是,隨著未來持續進行的優化設計,這一工具或許真的可以飛入尋常百姓家。
到那時,眼睛一動,就能玩轉手機了。
如今,智能手機的過度使用,已經成為全社會關注、亟需解決的問題。
隨著 4G、5G 網絡的廣泛覆蓋,以及智能手機功能的不斷強大,“一機在手、無所不能” 已逐漸成為常態,“手機購物、手機拍照、手機查詢、手機通信…… ”智能手機無疑已成為當前人們生活中不可或缺的一部分。
但是,很多人也因此經常擔心忘記帶手機,害怕手機沒電,殊不知,這還是一種名為“無手機恐懼癥”(Nomophobia)的病,而無手機恐懼癥會對健康造成負面危害(比如睡眠質量差)和有害的心理影響(比如脾氣變差)。
另有科學研究證實,智能手機的過度使用與身體活動減少、肥胖、頸部疼痛、表現受損和類似成癮的行為等問題有關,不僅會影響個人的生物鐘、視力甚至智力,還會損害個人的皮膚,造成手指麻木、慢性勞損等。
近日的一項研究表明,減少智能手機的日常使用,會對一個人的幸福感會產生積極影響,建議人們減少低頭時間,改變手機不離手的習慣,但同時也表示,為擁有更好、更滿意的生活,以及更少的焦慮,沒有必要完全放棄使用智能手機。
凡事適度就好。
https://dl.acm.org/doi/10.1145/3462244.3479938https://techxplore.com/news/2022-04-eyes-smartphone-gaze-tracking-tool.html
https://www.youtube.com/watch?v=-HwcmWRAsaA&ab_channel=FutureInterfacesGroup
https://doi.apa.org/doiLanding?doi=10.1037%2Fxap0000430