AI根據觸控手機的方式檢測你的情緒

2021-09-24 13:22:53 字數 1169 閱讀 7942

ai系統可以為我們的生活帶來便利,但是,我們的智慧型助手是否也可以開始學習我們的情感,並利用這些知識更好地為我們服務?

換句話說,alexa知道你什麼時候生氣嗎?還是傷心?

事實上,亞馬遜團隊一直致力於通過聲音語調分析情緒。但是我們的手機呢?

我們大多數人每天使用觸控螢幕數百次。蒙特婁的brain mining lab的一位研究人員alicia heraz訓練了一種演算法,用來識別憤怒,敬畏,慾望,恐懼,仇恨,悲傷,笑聲,愛等情感……僅僅從我們使用觸控螢幕的方式來看。

顯然,它的表現比人類更好。

這可能是乙個至關重要的工作領域。隨著我們繼續推動以電子為媒介的未來,我們如何對待機器及其對我們的反應將變得越來越重要。

twitter可能會在你喝醉的時候學習推文並隱藏你的推文幾個小時,然後問你是否真的是想侮辱你的老闆。facebook可能會認識到你發布了極度憤怒的帖子,並且可能只是在你有機會冷靜之前不會顯示帖子。siri,google assistant,alexa和cortana,可能會學習如何幫助我們有效地管理和引導我們的情緒。

如果你選擇分享資料,這些資料還可以幫助營銷人員了解你對其產品的感受,或者品牌知道你在使用其服務時的感受。醫生和心理健康專業人員可以更多地了解你對壓力的反應,或者你是否可以自我調節情緒。執法**可以更明智地做出假釋決定。當然,如果在未經同意或合法授權的情況下進行,其中許多將是隱私的重大侵犯。

在一項由117名志願者進行數十萬次觸控的小型實驗中,赫拉茲能夠利用機器學習訓練系統,以便在檢測情緒方面達到91%的準確率。人工判斷的準確性是84%。

令人印象深刻的是,隨著時間的推移,更多的資料應該會帶來更高的準確性。

「接下來有可能使觸控螢幕識別使用者的情緒,並與使用者分享這種情感洞察力,提高使用者的情感意識,並允許研究人員設計更好的技術以保持健康,」heraz寫道。

該技術的工作原理是檢查觸控的幅度,觸控的力,運動的速度,我們追蹤的形狀的流動性等等。heraz表示,它將很快通過api提供,並將在幾周後推出producthunt,乙個產品推薦**。

rapidminer:管理資料連線、加快部署和改進協作

tensorflow 2.0實戰入門(下)

tensorflow 2.0實戰入門(上)

基於深度學習方法可加快生成更清晰且逼真的影象

簡單的多點觸控手勢演算法

簡單的多點觸控手勢演算法 1.zoom動作 1 檢測到雙指down事件,記錄此時雙指間的距離為olddistant 2 當雙指移動時,實時計算雙指間的距離sampledistant 3 計算出縮放比例 zoom sampledistant olddistant 4 重複第2,3步直到up事件發生。2...

手機觸控螢幕的JS事件

處理touch事件能讓你跟蹤使用者的每一根手指的位置。你可以繫結以下四種touch事件 一 touchstart 手指放到螢幕上的時候觸發 touchmove 手指在螢幕上移動的時候觸發 touchend 手指從螢幕上拿起的時候觸發 touchcancel 系統取消touch事件的時候觸發。至於系統...

手機觸控螢幕的JS事件

處理touch事件能讓你跟蹤使用者的每一根手指的位置。你可以繫結以下四種touch事件 touchstart 手指放到螢幕上的時候觸發 touchmove 手指在螢幕上移動的時候觸發 touchend 手指從螢幕上拿起的時候觸發 touchcancel 系統取消touch事件的時候觸發。至於系統什麼...