大資料比賽(3) 模型選擇II

2021-07-11 17:21:39 字數 1776 閱讀 3715

神經網路與深度學習初步

基礎老規矩,先推文章:

手把手入門神經網路系列(1)_從初等數學的角度初探神經網路

深度學習概述:從感知機到深度網路

deep learning(深度學習)學習筆記整理系列

相信深度學習大熱的今天,大家對神經網路多少都有一些了解。在傳統的「教科書」之外,寒小陽同學所寫的部落格從另乙個容易理解的角度闡釋了nn的結構,叫做「邏輯回歸的邏輯回歸的邏輯回歸的邏輯……」

class

neuralnetworkfortianchi

(regressor):

def__init__

(self, nodes, active_function='sigmoid', lr=.1, decay=1., off=1e-5,

batch=128, regular='l2', penalty=.5):

self.nodes, self.active_function = nodes, active_function

regressor.__init__(self, none, lr, decay, off, batch, regular, penalty)

def_define_train_inputs

(self):

return [t.matrix('x'), t.matrix('a'), t.matrix('b'), t.matrix('y')]

def_predict_outputs

(self, *inputs):

y = inputs[0]

for i in range(len(self.nodes)-2):

y = self.layers['active_layer'].outs(self.layers['liner_layer'+str(i)].outs(y))

i = len(self.nodes)-2

y = self.layers['relu_layer'].outs(self.layers['liner_layer'+str(i)].outs(y))

return y

def_define_layers

(self):

layers =

for i in range(len(self.nodes)-1):

liner_layer = linerlayer(self.nodes[i], self.nodes[i+1])

layers['liner_layer'+str(i)] = liner_layer

return layers

def_define_predict_inputs

(self):

return [t.matrix('x')]

def_loss_function

(self):

""" loss function: mean_log_error, mean_squared_error, mean_absolute_error

:return: loss function

"""y_regular = self._predict_outputs(self.train_inputs[0])

a, b, y = self.train_inputs[1:]

penalty = self._regular()

diff = y - y_regular

return t.mean((diff > 0) * diff * a - (diff < 0) * diff * b + penalty)

大資料比賽 綜述

雖然只參與了幾個小型的資料比賽,成績也十分慘淡,但還是有一些小小收穫記錄下來以便查閱。1 比賽流程 問題分析 樣本處理 特徵抽取 模型選擇 實現 調參測試 提交 當然,與軟體工程相同,比賽的過程也是迭代進行的,每次提交之後可能就要重新走一遍流程以發現改進點。以目前淺薄的經驗來看,最重要的步驟是特徵抽...

2023年大資料比賽本科組 第3題 電影資料分析

import numpy as np import pandas as pd import matplotlib.pyplot as plt from pandas import series,dataframe df pd.read table h pythondata top250 f1.txt...

kaggle DC比賽程序3 參考資料

本次比賽可借鑑的比賽有 nyc taxi 因為資料開源nyc open data,所以網上有大量的研究。ecml pkdd 15 taxi trajectory prediction kdd支援的在kaggle社群的比賽。381 teams 冠軍採訪 ecml pkdd 15 taxi trip t...