日韩久久久精品,亚洲精品久久久久久久久久久,亚洲欧美一区二区三区国产精品 ,一区二区福利

python中幾種自動微分庫解析

系統(tǒng) 1954 0

前言

簡單介紹下python的幾個自動求導(dǎo)工具,tangent、autograd、sympy;

在各種機器學習、深度學習框架中都包含了自動微分,微分主要有這么四種:手動微分法、數(shù)值微分法、符號微分法、自動微分法,這里分別簡單走馬觀花(hello world式)的介紹下下面幾種微分框架;

sympy 強大的科學計算庫,使用的是符號微分,通過生成符號表達式進行求導(dǎo);求得的導(dǎo)數(shù)不一定為最簡的,當函數(shù)較為復(fù)雜時所生成的表達式樹異常復(fù)雜;

autograd自動微分先將符號微分用于基本的算子,帶入數(shù)值并保存中間結(jié)果,后應(yīng)用于整個函數(shù);自動微分本質(zhì)上就是圖計算,容易做很多優(yōu)化所以廣泛應(yīng)用于各種機器學習深度學習框架中;

tangent 為源到源(source-to-source)的自動微分框架,在計算函數(shù)f微分時他通過生成新函數(shù)f_grad來計算該函數(shù)的微分,與目前所存在的所有自動微分框架都有所不同;由于它是通過生成全新的函數(shù)來計算微分所以具有非常搞的可讀性、可調(diào)式性這也是官方所說的與當前自動微分框架的重大不同;

sympy 求導(dǎo)

            
 def grad():
   # 定義表達式的變量名稱
   x, y = symbols('x y')
   # 定義表達式
   z = x**2 +y**2
   # 計算z關(guān)于y對應(yīng)的偏導(dǎo)數(shù)
   return diff(z, y)
 func = grad()
          

輸出結(jié)果表達式z的導(dǎo)函數(shù)z‘=2*y

            
print(func) 
          

把y 等于6 帶入計算 結(jié)果 為12

            
print(func.evalf(subs ={'y':3}))
          

Autograd求偏導(dǎo)

            
 import autograd.numpy as np
 from autograd import grad
 #表達式 f(x,y)=x^2+3xy+y^2
 #df/dx = 2x+3y
 #df/dy = 3x+2y
 #x=1,y=2
 #df/dx=8
 #df/dy=7
 def fun(x, y):
  z=x**2+3*x*y+y**2
  return z
 fun_grad = grad(fun)
 fun_grad(2.,1.)
          

輸出:7.0

tangent求導(dǎo)

            
 import tangent
 def fun(x, y):
  z=x**2+3*x*y+y**2
  return z
          

默認為求z關(guān)于x的偏導(dǎo)數(shù)

            
dy_dx = tangent.grad(fun)
          

輸出偏導(dǎo)數(shù)值為 8 ,z' = 2 * x,此處x傳任何值都是一樣的

            
df(4, y=1)
          

可通過使用wrt參數(shù)指定求關(guān)于某個參數(shù)的偏導(dǎo)數(shù),下面為求z關(guān)于y的偏導(dǎo)數(shù)

            
df = tangent.grad(funs, wrt=([1]))
          

輸出值為10 ,z' = 2 *y,此處x傳任何值都是一樣的

            
df(x=0, y=5)
          

上面說了那么多也沒體現(xiàn)出tangent的核心:源到源(source-to-source)

在生成導(dǎo)函數(shù)的時候加入verbose=1參數(shù),即可看到tangent為我們生成的用于計算導(dǎo)數(shù)的函數(shù),默認情況下該值為0所以我們沒感覺到tangent的求導(dǎo)與別的自動微分框架有什么區(qū)別;

            
 def df(x):
   z = x**2
   return z
 df = tangent.grad(df, verbose=1)
 df(x=2)
          

在執(zhí)行完上述代碼后,我們看到了tangent為我們所生成用于求導(dǎo)數(shù)的函數(shù):

            
 def ddfdx(x, bz=1.0):
  z = x ** 2
  assert tangent.shapes_match(z, bz), 'Shape mismatch between return value (%s) and seed derivative (%s)' % (numpy.shape(z), numpy.shape(bz))
 # Grad of: z = x ** 2
 _bx = 2 * x * bz
 bx = _bx
 return bx
          

ddfdx函數(shù)就是所生成的函數(shù),從中我們也可以看到表達式z的導(dǎo)函數(shù)z'=2 * x,tangent就是通過執(zhí)行該函數(shù)用于求得導(dǎo)數(shù)的;

sympy 中的自動微分只是它強大的功能之一,autograd 從名字也可知它就是為了自動微分而生的,tangent初出茅廬2017年底Google才發(fā)布的自動微分方法也比較新穎,從17年發(fā)v0.1.8版本后也沒見發(fā)版,源碼更新也不夠活躍;sympy、autograd比較成熟,tangent還有待觀察;

以上就是本文的全部內(nèi)容,希望對大家的學習有所幫助,也希望大家多多支持腳本之家。


更多文章、技術(shù)交流、商務(wù)合作、聯(lián)系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號聯(lián)系: 360901061

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點擊下面給點支持吧,站長非常感激您!手機微信長按不能支付解決辦法:請將微信支付二維碼保存到相冊,切換到微信,然后點擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對您有幫助就好】

您的支持是博主寫作最大的動力,如果您喜歡我的文章,感覺我的文章對您有幫助,請用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長會非常 感謝您的哦!!!

發(fā)表我的評論
最新評論 總共0條評論
主站蜘蛛池模板: 梅河口市| 东莞市| 汝南县| 平泉县| 金寨县| 陈巴尔虎旗| 桑植县| 汝阳县| 三江| 区。| 五大连池市| 凤山县| 瑞昌市| 友谊县| 阿坝县| 达拉特旗| 海阳市| 双牌县| 安乡县| 老河口市| 苍山县| 苏尼特左旗| 余江县| 荃湾区| 昭觉县| 庄河市| 易门县| 普定县| 新绛县| 安龙县| 廊坊市| 革吉县| 辽阳县| 宽城| 察雅县| 当涂县| 杭州市| 万山特区| 上蔡县| 葫芦岛市| 呈贡县|