高阶API示范

技术

TensorFlow有5个不同的层次结构:即 硬件层内核层低阶API中阶API高阶API 。本章我们将以线性回归为例,直观对比展示在低阶API,中阶API,高阶API这三个层级实现模型的特点。

TensorFlow的层次结构从低到高可以分成如下五层。

最底层为硬件层,TensorFlow支持CPU、GPU或TPU加入计算资源池。

第二层为C++实现的内核,kernel可以跨平台分布运行。

第三层为Python实现的操作符,提供了封装C++内核的低级API指令,主要包括各种张量操作算子、计算图、自动微分.

如tf.Variable,tf.constant,tf.function,tf.GradientTape,tf.nn.softmax...

如果把模型比作一个房子,那么第三层API就是【模型之砖】。

第四层为Python实现的模型组件,对低级API进行了函数封装,主要包括各种模型层,损失函数,优化器,数据管道,特征列等等。

如tf.keras.layers,tf.keras.losses,tf.keras.metrics,tf.keras.optimizers,tf.data.Dataset,tf.feature_column...

如果把模型比作一个房子,那么第四层API就是【模型之墙】。

第五层为Python实现的模型成品,一般为按照OOP方式封装的高级API,主要为tf.keras.models提供的模型的类接口。

如果把模型比作一个房子,那么第五层API就是模型本身,即【模型之屋】。

picture.image

下面的范例使用TensorFlow的高阶API实现线性回归模型。

TensorFlow的高阶API主要为tf.keras.models提供的模型的类接口。

使用Keras接口有以下3种方式构建模型:使用Sequential按层顺序构建模型,使用函数式API构建任意结构模型,继承Model基类构建自定义模型。

此处分别演示使用Sequential按层顺序构建模型以及继承Model基类构建自定义模型。

一,面向新手教程


          
import tensorflow as tf  
from tensorflow.keras import models,layers,optimizers  
  
#样本数量  
n = 800  
  
# 生成测试用数据集  
X = tf.random.uniform([n,2],minval=-10,maxval=10)   
w0 = tf.constant([[2.0],[-1.0]])  
b0 = tf.constant(3.0)  
  
Y = X@w0 + b0 + tf.random.normal([n,1],mean = 0.0,stddev= 2.0)  # @表示矩阵乘法,增加正态扰动  

      

          
tf.keras.backend.clear_session()  
  
linear = models.Sequential()  
linear.add(layers.Dense(1,input_shape =(2,)))  
linear.summary()  

      

picture.image


          
### 使用fit方法进行训练  
  
linear.compile(optimizer="adam",loss="mse",metrics=["mae"])  
linear.fit(X,Y,batch_size = 20,epochs = 200)    
  
tf.print("w = ",linear.layers[0].kernel)  
tf.print("b = ",linear.layers[0].bias)  

      

picture.image

二,面向专家教程


          
import tensorflow as tf  
from tensorflow.keras import models,layers,optimizers,losses,metrics  
  
  
#打印时间分割线  
@tf.function  
def printbar():  
    ts = tf.timestamp()  
    today_ts = ts%(24*60*60)  
  
    hour = tf.cast(today_ts//3600+8,tf.int32)%tf.constant(24)  
    minite = tf.cast((today_ts%3600)//60,tf.int32)  
    second = tf.cast(tf.floor(today_ts%60),tf.int32)  
  
    def timeformat(m):  
        if tf.strings.length(tf.strings.format("{}",m))==1:  
            return(tf.strings.format("0{}",m))  
        else:  
            return(tf.strings.format("{}",m))  
  
    timestring = tf.strings.join([timeformat(hour),timeformat(minite),  
                timeformat(second)],separator = ":")  
    tf.print("=========="*8,end = "")  
    tf.print(timestring)  

      

          
#样本数量  
n = 800  
  
# 生成测试用数据集  
X = tf.random.uniform([n,2],minval=-10,maxval=10)   
w0 = tf.constant([[2.0],[-1.0]])  
b0 = tf.constant(3.0)  
  
Y = X@w0 + b0 + tf.random.normal([n,1],mean = 0.0,stddev= 2.0)  # @表示矩阵乘法,增加正态扰动  
  
ds_train = tf.data.Dataset.from_tensor_slices((X[0:n*3//4,:],Y[0:n*3//4,:])) \  
     .shuffle(buffer_size = 1000).batch(20) \  
     .prefetch(tf.data.experimental.AUTOTUNE) \  
     .cache()  
  
ds_valid = tf.data.Dataset.from_tensor_slices((X[n*3//4:,:],Y[n*3//4:,:])) \  
     .shuffle(buffer_size = 1000).batch(20) \  
     .prefetch(tf.data.experimental.AUTOTUNE) \  
     .cache()  

      

          
tf.keras.backend.clear_session()  
  
class MyModel(models.Model):  
    def \_\_init\_\_(self):  
        super(MyModel, self).__init__()  
  
    def build(self,input\_shape):  
        self.dense1 = layers.Dense(1)     
        super(MyModel,self).build(input_shape)  
  
    def call(self, x):  
        y = self.dense1(x)  
        return(y)  
  
model = MyModel()  
model.build(input_shape =(None,2))  
model.summary()  

      

picture.image


          
### 自定义训练循环(专家教程)  
  
  
optimizer = optimizers.Adam()  
loss_func = losses.MeanSquaredError()  
  
train_loss = tf.keras.metrics.Mean(name='train\_loss')  
train_metric = tf.keras.metrics.MeanAbsoluteError(name='train\_mae')  
  
valid_loss = tf.keras.metrics.Mean(name='valid\_loss')  
valid_metric = tf.keras.metrics.MeanAbsoluteError(name='valid\_mae')  
  
  
@tf.function  
def train\_step(model, features, labels):  
    with tf.GradientTape() as tape:  
        predictions = model(features)  
        loss = loss_func(labels, predictions)  
    gradients = tape.gradient(loss, model.trainable_variables)  
    optimizer.apply_gradients(zip(gradients, model.trainable_variables))  
  
    train_loss.update_state(loss)  
    train_metric.update_state(labels, predictions)  
  
@tf.function  
def valid\_step(model, features, labels):  
    predictions = model(features)  
    batch_loss = loss_func(labels, predictions)  
    valid_loss.update_state(batch_loss)  
    valid_metric.update_state(labels, predictions)  
  
  
@tf.function  
def train\_model(model,ds\_train,ds\_valid,epochs):  
    for epoch in tf.range(1,epochs+1):  
        for features, labels in ds_train:  
            train_step(model,features,labels)  
  
        for features, labels in ds_valid:  
            valid_step(model,features,labels)  
  
        logs = 'Epoch={},Loss:{},MAE:{},Valid Loss:{},Valid MAE:{}'  
  
        if  epoch%100 ==0:  
            printbar()  
            tf.print(tf.strings.format(logs,  
            (epoch,train_loss.result(),train_metric.result(),valid_loss.result(),valid_metric.result())))  
            tf.print("w=",model.layers[0].kernel)  
            tf.print("b=",model.layers[0].bias)  
            tf.print("")  
  
        train_loss.reset_states()  
        valid_loss.reset_states()  
        train_metric.reset_states()  
        valid_metric.reset_states()  
  
train_model(model,ds_train,ds_valid,400)  

      

picture.image

picture.image

picture.image

picture.image

猜你喜欢❤️:

公众号后台回复关键字: tensorflow ,获取本书github项目源码和对应数据集!

picture.image

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
边缘云趋势展望:AI时代的基础设施
《火山引擎边缘云,AI时代的基础设施》 刘浩 | 火山引擎边缘云高级产品总监
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论