前言:
keras默认提供了如何获取某一个层的某一个节点的输出,但是没有提供如何获取某一个层的输出的接口,所以有时候我们需要获取某一个层的输出,则需要自己编写代码,但是鉴于keras高层封装的特性,编写起来实际上很简单,本文提供两种常见的方法来实现,基于上一篇文章的模型和代码: keras自定义回调函数查看训练的loss和accuracy
一、模型加载以及各个层的信息查看
从前面的定义可知,参见上一篇文章,一共定义了8个网络层,定义如下:
model.add(Convolution2D(filters=6, kernel_size=(5, 5), padding='valid', input_shape=(img_rows, img_cols, 1), activation='tanh')) model.add(MaxPooling2D(pool_size=(2, 2))) model.add(Convolution2D(filters=16, kernel_size=(5, 5), padding='valid', activation='tanh')) model.add(MaxPooling2D(pool_size=(2, 2))) model.add(Flatten()) model.add(Dense(120, activation='tanh')) model.add(Dense(84, activation='tanh')) model.add(Dense(n_classes, activation='softmax'))
这里每一个层都没有起名字,实际上最好给每一个层取一个名字,所以这里就使用索引来访问层,如下:
for index in range(8): layer=model.get_layer(index=index) # layer=model.layers[index] # 这样获取每一个层也是一样的 print(model) '''运行结果如下: <keras.engine.sequential.Sequential object at 0x0000012A4F232E10> <keras.engine.sequential.Sequential object at 0x0000012A4F232E10> <keras.engine.sequential.Sequential object at 0x0000012A4F232E10> <keras.engine.sequential.Sequential object at 0x0000012A4F232E10> <keras.engine.sequential.Sequential object at 0x0000012A4F232E10> <keras.engine.sequential.Sequential object at 0x0000012A4F232E10> <keras.engine.sequential.Sequential object at 0x0000012A4F232E10> <keras.engine.sequential.Sequential object at 0x0000012A4F232E10> '''
当然由于 model.laters是一个列表,所以可以一次性打印出所有的层信息,即
print(model.layers) # 打印出所有的层
二、模型的加载
准备测试数据
# 训练参数 learning_rate = 0.001 epochs = 10 batch_size = 128 n_classes = 10 # 定义图像维度reshape img_rows, img_cols = 28, 28 # 加载keras中的mnist数据集 分为60,000个训练集,10,000个测试集 (x_train, y_train), (x_test, y_test) = mnist.load_data() # 将图片转化为(samples,width,height,channels)的格式 x_train = x_train.reshape(x_train.shape[0], img_rows, img_cols, 1) x_test = x_test.reshape(x_test.shape[0], img_rows, img_cols, 1) # 将X_train, X_test的数据格式转为float32 x_train = x_train.astype('float32') x_test = x_test.astype('float32') # 将X_train, X_test归一化0-1 x_train /= 255 x_test /= 255 # 输出0-9转换为ont-hot形式 y_train = np_utils.to_categorical(y_train, n_classes) y_test = np_utils.to_categorical(y_test, n_classes)
模型的加载
model=keras.models.load_model('./models/lenet5_weight.h5')
注意事项:
keras的每一个层有一个input和output属性,但是它是只针对单节点的层而言的哦,否则就不需要我们再自己编写输出函数了,
如果一个层具有单个节点 (i.e. 如果它不是共享层), 你可以得到它的输入张量、输出张量、输入尺寸和输出尺寸:
layer.input layer.output layer.input_shape layer.output_shape
如果层有多个节点 (参见: 层节点和共享层的概念), 您可以使用以下函数:
layer.get_input_at(node_index) layer.get_output_at(node_index) layer.get_input_shape_at(node_index) layer.get_output_shape_at(node_index)
三、获取某一个层的输出的方法定义
3.1 第一种实现方法
def get_output_function(model,output_layer_index): ''' model: 要保存的模型 output_layer_index:要获取的那一个层的索引 ''' vector_funcrion=K.function([model.layers[0].input],[model.layers[output_layer_index].output]) def inner(input_data): vector=vector_funcrion([input_data])[0] return vector return inner # 现在仅仅测试一张图片 #选择一张图片,选择第一张 x= np.expand_dims(x_test[1],axis=0) #[1,28,28,1] 的形状 get_feature=get_output_function(model,6) # 该函数的返回值依然是一个函数哦,获取第6层输出 feature=get_feature(x) # 相当于调用 定义在里面的inner函数 print(feature) '''运行结果为 [[-0.99986297 -0.9988328 -0.9273474 0.9101525 -0.9054705 -0.95798373 0.9911243 0.78576803 0.99676156 0.39356467 -0.9724135 -0.74534595 0.8527011 -0.9968267 -0.9420816 -0.32765102 -0.41667578 0.99942905 0.92333794 0.7565034 -0.38416263 -0.994241 0.3781617 0.9621943 0.9443946 0.9671554 -0.01000021 -0.9984282 -0.96650964 -0.9925837 -0.48193568 -0.9749565 -0.79769516 0.9651831 0.9678705 -0.9444472 0.9405674 0.97538495 -0.12366439 -0.9973782 0.05803521 0.9159217 -0.9627071 0.99898154 0.99429387 -0.985909 0.5787794 -0.9789403 -0.94316894 0.9999644 0.9156823 0.46314353 -0.01582102 0.98359734 0.5586145 -0.97360635 0.99058044 0.9995654 -0.9800733 0.99942625 0.8786553 -0.9992093 0.99916387 -0.5141877 0.99970615 0.28427476 0.86589384 0.7649907 -0.9986046 0.9999706 -0.9892468 0.99854743 -0.86872625 -0.9997323 0.98981035 -0.87805724 -0.9999373 -0.7842255 -0.97456616 -0.97237325 -0.729563 0.98718935 0.9992022 -0.5294769 ]] '''
但是上面的实现方法似乎不是很简单,还有更加简单的方法,思想来源与keras中,可以将整个模型model也当成是层layer来处理,实现如下面。
3.2 第二种实现方法
import keras import numpy as np from keras.datasets import mnist from keras.models import Model model=keras.models.load_model('./models/lenet5_weight.h5') #选择一张图片,选择第一张 x= np.expand_dims(x_test[1],axis=0) #[1,28,28,1] 的形状 # 将模型作为一个层,输出第7层的输出 layer_model = Model(inputs=model.input, outputs=model.layers[6].output) feature=layer_model.predict(x) print(feature) '''运行结果为: [[-0.99986297 -0.9988328 -0.9273474 0.9101525 -0.9054705 -0.95798373 0.9911243 0.78576803 0.99676156 0.39356467 -0.9724135 -0.74534595 0.8527011 -0.9968267 -0.9420816 -0.32765102 -0.41667578 0.99942905 0.92333794 0.7565034 -0.38416263 -0.994241 0.3781617 0.9621943 0.9443946 0.9671554 -0.01000021 -0.9984282 -0.96650964 -0.9925837 -0.48193568 -0.9749565 -0.79769516 0.9651831 0.9678705 -0.9444472 0.9405674 0.97538495 -0.12366439 -0.9973782 0.05803521 0.9159217 -0.9627071 0.99898154 0.99429387 -0.985909 0.5787794 -0.9789403 -0.94316894 0.9999644 0.9156823 0.46314353 -0.01582102 0.98359734 0.5586145 -0.97360635 0.99058044 0.9995654 -0.9800733 0.99942625 0.8786553 -0.9992093 0.99916387 -0.5141877 0.99970615 0.28427476 0.86589384 0.7649907 -0.9986046 0.9999706 -0.9892468 0.99854743 -0.86872625 -0.9997323 0.98981035 -0.87805724 -0.9999373 -0.7842255 -0.97456616 -0.97237325 -0.729563 0.98718935 0.9992022 -0.5294769 ]] '''
可见和上面的结果是一样的,
总结:
由于keras的层与模型之间实际上的转化关系,所以提供了非常灵活的输出方法,推荐使用第二种方法获得某一个层的输出。总结为以下几个主要的步骤(四步走):
import keras import numpy as np from keras.datasets import mnist from keras.models import Model # 第一步:准备输入数据 x= np.expand_dims(x_test[1],axis=0) #[1,28,28,1] 的形状 # 第二步:加载已经训练的模型 model=keras.models.load_model('./models/lenet5_weight.h5') # 第三步:将模型作为一个层,输出第7层的输出 layer_model = Model(inputs=model.input, outputs=model.layers[6].output) # 第四步:调用新建的“曾模型”的predict方法,得到模型的输出 feature=layer_model.predict(x) print(feature)
以上这篇keras小技巧——获取某一个网络层的输出方式就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持。
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
《魔兽世界》大逃杀!60人新游玩模式《强袭风暴》3月21日上线
暴雪近日发布了《魔兽世界》10.2.6 更新内容,新游玩模式《强袭风暴》即将于3月21 日在亚服上线,届时玩家将前往阿拉希高地展开一场 60 人大逃杀对战。
艾泽拉斯的冒险者已经征服了艾泽拉斯的大地及遥远的彼岸。他们在对抗世界上最致命的敌人时展现出过人的手腕,并且成功阻止终结宇宙等级的威胁。当他们在为即将于《魔兽世界》资料片《地心之战》中来袭的萨拉塔斯势力做战斗准备时,他们还需要在熟悉的阿拉希高地面对一个全新的敌人──那就是彼此。在《巨龙崛起》10.2.6 更新的《强袭风暴》中,玩家将会进入一个全新的海盗主题大逃杀式限时活动,其中包含极高的风险和史诗级的奖励。
《强袭风暴》不是普通的战场,作为一个独立于主游戏之外的活动,玩家可以用大逃杀的风格来体验《魔兽世界》,不分职业、不分装备(除了你在赛局中捡到的),光是技巧和战略的强弱之分就能决定出谁才是能坚持到最后的赢家。本次活动将会开放单人和双人模式,玩家在加入海盗主题的预赛大厅区域前,可以从强袭风暴角色画面新增好友。游玩游戏将可以累计名望轨迹,《巨龙崛起》和《魔兽世界:巫妖王之怒 经典版》的玩家都可以获得奖励。
更新日志
- 凤飞飞《我们的主题曲》飞跃制作[正版原抓WAV+CUE]
- 刘嘉亮《亮情歌2》[WAV+CUE][1G]
- 红馆40·谭咏麟《歌者恋歌浓情30年演唱会》3CD[低速原抓WAV+CUE][1.8G]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[320K/MP3][193.25MB]
- 【轻音乐】曼托凡尼乐团《精选辑》2CD.1998[FLAC+CUE整轨]
- 邝美云《心中有爱》1989年香港DMIJP版1MTO东芝首版[WAV+CUE]
- 群星《情叹-发烧女声DSD》天籁女声发烧碟[WAV+CUE]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[FLAC/分轨][748.03MB]
- 理想混蛋《Origin Sessions》[320K/MP3][37.47MB]
- 公馆青少年《我其实一点都不酷》[320K/MP3][78.78MB]
- 群星《情叹-发烧男声DSD》最值得珍藏的完美男声[WAV+CUE]
- 群星《国韵飘香·贵妃醉酒HQCD黑胶王》2CD[WAV]
- 卫兰《DAUGHTER》【低速原抓WAV+CUE】
- 公馆青少年《我其实一点都不酷》[FLAC/分轨][398.22MB]
- ZWEI《迟暮的花 (Explicit)》[320K/MP3][57.16MB]