iis服务器助手广告广告
返回顶部
首页 > 资讯 > 后端开发 > Python >tensorflow2 自定义损失函数使用的隐藏坑
  • 433
分享到

tensorflow2 自定义损失函数使用的隐藏坑

2024-04-02 19:04:59 433人浏览 安东尼

Python 官方文档:入门教程 => 点击学习

摘要

Keras的核心原则是逐步揭示复杂性,可以在保持相应的高级便利性的同时,对操作细节进行更多控制。当我们要自定义fit中的训练算法时,可以重写模型中的train_step方法,然后调用

Keras的核心原则是逐步揭示复杂性,可以在保持相应的高级便利性的同时,对操作细节进行更多控制。当我们要自定义fit中的训练算法时,可以重写模型中的train_step方法,然后调用fit来训练模型。

这里以Tensorflow2官网中的例子来说明:


import numpy as np
import tensorflow as tf
from tensorflow import keras
x = np.random.random((1000, 32))
y = np.random.random((1000, 1))
class CustomModel(keras.Model):
    tf.random.set_seed(100)
    def train_step(self, data):
        # Unpack the data. Its structure depends on your model and
        # on what you pass to `fit()`.
        x, y = data

        with tf.GradientTape() as tape:
            y_pred = self(x, training=True)  # Forward pass
            # Compute the loss value
            # (the loss function is configured in `compile()`)
            loss = self.compiled_loss(y, y_pred, regularization_losses=self.losses)

        # Compute gradients
        trainable_vars = self.trainable_variables
        gradients = tape.gradient(loss, trainable_vars)
        # Update weights
        self.optimizer.apply_gradients(zip(gradients, trainable_vars))
        # Update metrics (includes the metric that tracks the loss)
        self.compiled_metrics.update_state(y, y_pred)
        # Return a dict mapping metric names to current value
        return {m.name: m.result() for m in self.metrics}
    


# Construct and compile an instance of CustomModel
inputs = keras.Input(shape=(32,))
outputs = keras.layers.Dense(1)(inputs)
model = CustomModel(inputs, outputs)
model.compile(optimizer="adam", loss=tf.losses.MSE, metrics=["mae"])

# Just use `fit` as usual

model.fit(x, y, epochs=1, shuffle=False)
32/32 [==============================] - 0s 1ms/step - loss: 0.2783 - mae: 0.4257

 
<tensorflow.python.keras.callbacks.History at 0x7ff7edf6dfd0>

这里的loss是tensorflow库中实现了的损失函数,如果想自定义损失函数,然后将损失函数传入model.compile中,能正常按我们预想的work吗?

答案竟然是否定的,而且没有错误提示,只是loss计算不会符合我们的预期。


def custom_mse(y_true, y_pred):
    return tf.reduce_mean((y_true - y_pred)**2, axis=-1)
a_true = tf.constant([1., 1.5, 1.2])
a_pred = tf.constant([1., 2, 1.5])
custom_mse(a_true, a_pred)
<tf.Tensor: shape=(), dtype=float32, numpy=0.11333332>
tf.losses.MSE(a_true, a_pred)
<tf.Tensor: shape=(), dtype=float32, numpy=0.11333332>

以上结果证实了我们自定义loss的正确性,下面我们直接将自定义的loss置入compile中的loss参数中,看看会发生什么。


my_model = CustomModel(inputs, outputs)
my_model.compile(optimizer="adam", loss=custom_mse, metrics=["mae"])
my_model.fit(x, y, epochs=1, shuffle=False)
32/32 [==============================] - 0s 820us/step - loss: 0.1628 - mae: 0.3257

<tensorflow.Python.keras.callbacks.History at 0x7ff7edeb7810>

我们看到,这里的loss与我们与标准的tf.losses.MSE明显不同。这说明我们自定义的loss以这种方式直接传递进model.compile中,是完全错误的操作。

正确运用自定义loss的姿势是什么呢?下面揭晓。


loss_tracker = keras.metrics.Mean(name="loss")
mae_metric = keras.metrics.MeanAbsoluteError(name="mae")

class MyCustomModel(keras.Model):
    tf.random.set_seed(100)
    def train_step(self, data):
        # Unpack the data. Its structure depends on your model and
        # on what you pass to `fit()`.
        x, y = data

        with tf.GradientTape() as tape:
            y_pred = self(x, training=True)  # Forward pass
            # Compute the loss value
            # (the loss function is configured in `compile()`)
            loss = custom_mse(y, y_pred)
            # loss += self.losses

        # Compute gradients
        trainable_vars = self.trainable_variables
        gradients = tape.gradient(loss, trainable_vars)
        # Update weights
        self.optimizer.apply_gradients(zip(gradients, trainable_vars))
        
        # Compute our own metrics
        loss_tracker.update_state(loss)
        mae_metric.update_state(y, y_pred)
        return {"loss": loss_tracker.result(), "mae": mae_metric.result()}
    
    @property
    def metrics(self):
        # We list our `Metric` objects here so that `reset_states()` can be
        # called automatically at the start of each epoch
        # or at the start of `evaluate()`.
        # If you don't implement this property, you have to call
        # `reset_states()` yourself at the time of your choosing.
        return [loss_tracker, mae_metric]
    
# Construct and compile an instance of CustomModel
inputs = keras.Input(shape=(32,))
outputs = keras.layers.Dense(1)(inputs)
my_model_beta = MyCustomModel(inputs, outputs)
my_model_beta.compile(optimizer="adam")

# Just use `fit` as usual

my_model_beta.fit(x, y, epochs=1, shuffle=False)
32/32 [==============================] - 0s 960us/step - loss: 0.2783 - mae: 0.4257

<tensorflow.python.keras.callbacks.History at 0x7ff7eda3D810>

终于,通过跳过在 compile() 中传递损失函数,而在 train_step 中手动完成所有计算内容,我们获得了与之前默认tf.losses.MSE完全一致的输出,这才是我们想要的结果。

总结一下,当我们在模型中想用自定义的损失函数,不能直接传入fit函数,而是需要在train_step中手动传入,完成计算过程。

到此这篇关于tensorflow2 自定义损失函数使用的隐藏坑的文章就介绍到这了,更多相关tensorflow2 自定义损失函数内容请搜索编程网以前的文章或继续浏览下面的相关文章希望大家以后多多支持编程网!

--结束END--

本文标题: tensorflow2 自定义损失函数使用的隐藏坑

本文链接: https://www.lsjlt.com/news/131257.html(转载时请注明来源链接)

有问题或投稿请发送至: 邮箱/279061341@qq.com    QQ/279061341

本篇文章演示代码以及资料文档资料下载

下载Word文档到电脑,方便收藏和打印~

下载Word文档
猜你喜欢
  • tensorflow2 自定义损失函数使用的隐藏坑
    Keras的核心原则是逐步揭示复杂性,可以在保持相应的高级便利性的同时,对操作细节进行更多控制。当我们要自定义fit中的训练算法时,可以重写模型中的train_step方法,然后调用...
    99+
    2024-04-02
  • tensorflow2中怎么自定义损失函数
    tensorflow2中怎么自定义损失函数,相信很多没有经验的人对此束手无策,为此本文总结了问题出现的原因和解决方法,通过这篇文章希望你能解决这个问题。Keras的核心原则是逐步揭示复杂性,可以在保持相应的高级便利性的同时,对操作细节进行更...
    99+
    2023-06-20
  • 使用tensorflow2自定义损失函数需要注意什么
    小编给大家分享一下使用tensorflow2自定义损失函数需要注意什么,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!Keras的核心原则是逐步揭示复杂性,可以在保...
    99+
    2023-06-28
  • pytorch自定义loss损失函数
    目录步骤1:添加自定义的类步骤2:修改使用的loss函数自定义loss的方法有很多,但是在博主查资料的时候发现有挺多写法会有问题,靠谱一点的方法是把loss作为一个pytorch的模...
    99+
    2024-04-02
  • Keras中如何使用自定义损失函数
    在Keras中使用自定义损失函数需要定义一个损失函数的Python函数,并将其传递给模型的compile()方法中。以下是一个简单的...
    99+
    2024-04-02
  • 如何在Keras中使用自定义的损失函数
    要在Keras中使用自定义的损失函数,首先需要定义一个Python函数来表示损失函数,然后将其传递给Keras模型的compile(...
    99+
    2024-03-12
    Keras
  • 详解MindSpore自定义模型损失函数
    目录一、技术背景二、MindSpore内置的损失函数三、自定义损失函数四、自定义其他算子五、多层算子的应用六、重定义reduction一、技术背景 损失函数是机器学习中直接决定训练结...
    99+
    2024-04-02
  • Neuroph是否支持自定义损失函数
    Neuroph不支持直接定义自定义损失函数。Neuroph是一个用Java编写的神经网络库,它提供了一些常见的损失函数,如平方损失函...
    99+
    2024-04-02
  • 如何利用Torch构建自定义的损失函数
    要利用Torch构建自定义的损失函数,你需要定义一个新的损失函数类,并重写其中的forward方法来计算损失值。接下来是一个示例代码...
    99+
    2024-04-02
  • PaddlePaddle中如何实现自定义的损失函数
    在PaddlePaddle中实现自定义的损失函数,可以通过继承paddle.nn.Layer类并重载__call__方法来实现。以下...
    99+
    2024-04-02
  • PyTorch中怎么实现自定义损失函数
    要实现自定义损失函数,可以按照以下步骤在PyTorch中实现: 创建一个继承自torch.nn.Module的类,该类用于定义自定...
    99+
    2024-03-05
    PyTorch
  • MindSpore自定义模型损失函数的示例分析
    这篇文章将为大家详细讲解有关MindSpore自定义模型损失函数的示例分析,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。一、技术背景损失函数是机器学习中直接决定训练结果好坏的一个模块,该函数用于定义计算出...
    99+
    2023-06-20
  • Chainer怎么自定义损失函数和评估指标
    在Chainer中,可以通过定义一个函数来自定义损失函数和评估指标。下面分别介绍如何自定义损失函数和评估指标: 自定义损失函数: i...
    99+
    2024-04-02
  • Fastai中怎么自定义损失函数和评估指标
    要自定义损失函数和评估指标,你可以使用Fastai中的loss_func和metrics参数来实现。 首先,定义一个自定义的损失函数...
    99+
    2024-04-02
  • CNTK怎么支持自定义损失函数和评估指标
    CNTK(Microsoft Cognitive Toolkit)支持自定义损失函数和评估指标,可以通过以下步骤实现: 自定义损失...
    99+
    2024-04-02
  • Pytorch损失函数torch.nn.NLLLoss()的使用
    目录Pytorch损失函数torch.nn.NLLLoss()交叉熵计算公式nn.NLLLoss计算公式log_softmaxnn.NLLLossnn.CrossEntropyLos...
    99+
    2023-02-01
    Pytorch损失函数 torch.nn.NLLLoss() 使用torch.nn.NLLLoss()
  • SparkSQL的自定义函数UDF使用
    目录Spark_SQL的UDF使用UDF简单使用Spark_SQL的UDF使用 用户自定义函数,也叫UDF,可以让我们使用Python/Java/Scala注册自定义函数,并在SQL...
    99+
    2023-02-01
    Spark SQL UDF Spark自定义函数UDF
  • vue3的自定义hook函数使用
    目录自定义hook函数使用vue3 hooks函数示例官方示例代码---封装前使用hooks函数封装后hooks函数自定义hook函数使用 使用Vue3的组合API封装的可复用的功能...
    99+
    2024-04-02
  • 使用JavaScript 定义自己的ajax函数
    由于用原生js的方式发起的网络请求,都是以查询字符串的形式,提交给服务器的,用户以对象的形式提交参数的话会比较方便,所以需要把用户传递过来的参数对象进行处理,定义resolveDat...
    99+
    2024-04-02
  • pytorch交叉熵损失函数的weight参数的使用
    首先 必须将权重也转为Tensor的cuda格式; 然后 将该class_weight作为交叉熵函数对应参数的输入值。 class_weight = torch.FloatTen...
    99+
    2024-04-02
软考高级职称资格查询
编程网,编程工程师的家园,是目前国内优秀的开源技术社区之一,形成了由开源软件库、代码分享、资讯、协作翻译、讨论区和博客等几大频道内容,为IT开发者提供了一个发现、使用、并交流开源技术的平台。
  • 官方手机版

  • 微信公众号

  • 商务合作