深度學習處理器

2021-09-21 18:39:01 字數 1381 閱讀 5518

人工智慧的演算法主要的智慧型方法

1)符號主義

符號主義所面臨的問題:

2)行為主義

行為主義所面臨的問題:

3)連線主義

神經網路演算法模擬1000億神經元和100萬億的突觸

生物的神經元和人工神經網路裡的神經元有什麼區別嗎?

相當於老鼠和公尺老鼠的區別:即生物中的神經元是老鼠,人工神經網路裡的神經元是公尺老鼠,在弱化了一些老鼠的結構,比如其生理結構,只是選取其功能性或者特徵量,並且根據人的需要,增加了一些原本所不具備的特徵量。

最簡單的人工神經網路x1 w1,x2 w2,xi wi ->啟用函式(包含乙個閾值).

深度學習

逐層對資訊進行分類和加工

deepmind提出的:深度學習+加強學習deepmind和openvi:利用深度學習打刀塔

為什麼要用專用的深度學習處理器?

深度學習是智慧型處理迄今最好的方面,通用cpu和gpu處理人工神經網路的時候效率低下

gpu:圖形處理需要,

dsp:訊號處理智慧型處理

?->寒武紀:生物大爆發的時代單核gpu多核gpu

通用學習的深度學習處理器cambricon

如何使用深度學習處理器晶元高效處理海量的,不斷演進的深度學習演算法?演算法的更新是一直進行的,而晶元的開發是長時間的。

現存的三大矛盾

1.有限規模的硬體怎麼處理任意規模的演算法(晶元是無法做到任意規模的)

2.機構固定的硬體是怎麼處理千變萬化的演算法

3.能耗受限的硬體是怎麼處理精度優先的演算法(做硬體一定由能耗要求)

深度學習指令集

主要運算

資料區域性性特徵三個柱子

作用:就算演算法有更新,只需要利用指令集將其組合起來就行了。

機器學習演算法:樸素貝葉斯有共性的指令集的運算指令。

稀疏神經網路處理器的結構

學術思想

利用神經網路對於計算機誤差的容忍能力,進行稀疏化神經網路處理,在有限能耗下實現高精度的只能處理。

解決第三點關於能耗硬體和演算法精度的矛盾問題:對於誤差是由容忍你能力的,對於運算上很多都可以簡化為0,所以有一些為0的,現在的計算機都是馮諾依曼結構,分形馮諾依曼結構,分形理論,通用的體系結構和體系架構。但是如果是體系中引數散布的0的話處理起來仍然不方便,需要將其中的一塊集結都為0,才方便省去大量的計算。

物理處理器與邏輯處理器

記錄解決方案,自己實際處理過,方案可用,在自己的部落格中記錄一下。cpu central processing unit 是 處理單元,本文介紹物理cpu,物理cpu核心,邏輯cpu,以及他們三者之間的關係。乙個物理cpu可以有1個或者多個物理核心,乙個物理核心可以作為1個或者2個邏輯cpu。物理c...

深度神經網路處理器 DianNao系列

全世界都在學中國話 一次看到這些 的名字,是在乙個冰天雪地的,美國東北部偏僻的乙個大學城裡。聽到印度女教授努力的發出 dian nao 的發音,我心中不禁有一種溫暖而自豪的感覺。我們花了整整半節課研究了diannao等一系列的產品。畢竟這一系列 可以說是開啟了ai加速器的先河了。之後才有了如今ai ...

處理器核心

處理器核心 cache 寫緩衝器 主存 輔助儲存器 寫操作,對核心而言非迫切,所以加乙個寫緩衝器很好。cache可放在處理器核心與mmu之間 邏輯 cache,主流 也可放在mmu與主存之間 物理 cache 對儲存器中相同或相鄰資料和 的反覆使用,是cache改善效能的主要原因。cache同時使用...