- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
import java.util.Random;
public class DBN { public int N; public int n_ins;
public int[] hidden_layer_sizes;
public int n_outs;
public int n_layers;
public HiddenLayer[] sigmoid_layers;
public RBM[] rbm_layers;
public LogisticRegression log_layer;
public Random rng;
public static double sigmoid(double x) {
return 1.0 / (1.0 + Math.pow(Math.E, -x));
}
//DBN 的构造函数 N 为样本的个数, n-ins 为特征个数, hidden_layer_sizes 为 隐藏层的结构, n-outs 为输出维数, n-layers 为隐藏层个数, rng 为随机数实例 public DBN(int N, int n_ins, int[] hidden_layer_sizes, int n_outs, int
n_layers, Random rng) {
int input_size;
this.N = N; // 赋值样本数目
this.n_ins = n_ins; //赋值特征个数
this.hidden_layer_sizes = hidden_layer_sizes; //赋值隐藏层结构
this.n_outs = n_outs; // 赋值输出维数
this.n_layers = n_layers; // 赋值隐藏层数目
this.sigmoid_layers = new HiddenLayer[n_layers]; // 声明两个隐藏层
this.rbm_layers = new RBM[n_layers]; //声明两个RBM对应每个隐藏层
if(rng == null) this.rng = new Random(1234); // 获取一个随机数值
else this.rng = rng;
// construct multi-layer 初始化每个隐藏层
for(int i=0; ithis.n_layers; i++) {
if(i == 0) {
input_size = this.n_ins; //第一层隐藏层的输入为样本的特征的
个数
} else {
input_size = this.hidden_layer_sizes[i-1]; // 后面的隐藏层 的输入为上一层隐藏层的输出,也就是上一层的隐藏层节点的个数。
};// sigmoid 层是用来计算的, rbm 是用来调整 w , b , c 的
// construct sigmoid_layer 初始化每个隐藏层 , 初始化做的事情就 是给W和b赋随机值
this.sigmoid_layers[i] = new HiddenLayer(this.N, input_size,
this.hidden_layer_sizes[i], null, null, rng);
// construct rbm_layer 初始化玻尔兹曼机,其实也就是初始化,W, b , c 其中,w , b 用的是hiddenlayer的
this.rbm_layers[i] = new RBM(this.N, input_size,
this.hidden_layer_sizes[i], this.sigmoid_layers[i].W, this.sigmoid_layers[i].b, null, rng);
}
//在完成每一层的构建之后,构建一个输出的逻辑回归层
// layer for output using LogisticRegression, 参数为样本个数N, 输 入为网络结构最后一层的输出数, 输出为DBM网络设置的输出维数
this.log_layer = new LogisticRegression(this.N,
this.hidden_layer_sizes[this.n_layers-1], this.n_outs);
}
//对DBN网络进行一个预训练,目的是为每一层先构造更好的W和b, 先使得网络更好 的拟合样本的分布,类似于先把点放在最后值的附近
public void pretrain(int[][] train_X, double lr, int k, int epochs) {
//输入训练样本, 学习率lr , CD-k =1 , epochs=1000
int[] la
原创力文档


文档评论(0)