我的编程空间,编程开发者的网络收藏夹
学习永远不晚

keras多任务多loss回传的示例分析

短信预约 -IT技能 免费直播动态提醒
省份

北京

  • 北京
  • 上海
  • 天津
  • 重庆
  • 河北
  • 山东
  • 辽宁
  • 黑龙江
  • 吉林
  • 甘肃
  • 青海
  • 河南
  • 江苏
  • 湖北
  • 湖南
  • 江西
  • 浙江
  • 广东
  • 云南
  • 福建
  • 海南
  • 山西
  • 四川
  • 陕西
  • 贵州
  • 安徽
  • 广西
  • 内蒙
  • 西藏
  • 新疆
  • 宁夏
  • 兵团
手机号立即预约

请填写图片验证码后获取短信验证码

看不清楚,换张图片

免费获取短信验证码

keras多任务多loss回传的示例分析

这篇文章将为大家详细讲解有关keras多任务多loss回传的示例分析,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。

如果有一个多任务多loss的网络,那么在训练时,loss是如何工作的呢?

比如下面:

model = Model(inputs = input, outputs = [y1, y2])l1 = 0.5l2 = 0.3model.compile(loss = [loss1, loss2], loss_weights=[l1, l2], ...)

其实我们最终得到的loss为

final_loss = l1 * loss1 + l2 * loss2

我们最终的优化效果是最小化final_loss。

问题来了,在训练过程中,是否loss2只更新得到y2的网络通路,还是loss2会更新所有的网络层呢?

此问题的关键在梯度回传上,即反向传播算法。

keras多任务多loss回传的示例分析

keras多任务多loss回传的示例分析

所以loss1只对x1和x2有影响,而loss2只对x1和x3有影响。

补充:keras 多个LOSS总和定义

keras多任务多loss回传的示例分析

用字典形式,名字是模型中输出那一层的名字,这里的loss可以是自己定义的,也可是自带的

补充:keras实战-多类别分割loss实现

本文样例均为3d数据的onehot标签形式,即y_true(batch_size,x,y,z,class_num)

1、dice loss

def dice_coef_fun(smooth=1):    def dice_coef(y_true, y_pred):        #求得每个sample的每个类的dice        intersection = K.sum(y_true * y_pred, axis=(1,2,3))        union = K.sum(y_true, axis=(1,2,3)) + K.sum(y_pred, axis=(1,2,3))        sample_dices=(2. * intersection + smooth) / (union + smooth) #一维数组 为各个类别的dice        #求得每个类的dice        dices=K.mean(sample_dices,axis=0)        return K.mean(dices) #所有类别dice求平均的dice    return dice_coef def dice_coef_loss_fun(smooth=0):    def dice_coef_loss(y_true,y_pred):        return 1-1-dice_coef_fun(smooth=smooth)(y_true=y_true,y_pred=y_pred)    return dice_coef_loss

2、generalized dice loss

def generalized_dice_coef_fun(smooth=0):    def generalized_dice(y_true, y_pred):        # Compute weights: "the contribution of each label is corrected by the inverse of its volume"        w = K.sum(y_true, axis=(0, 1, 2, 3))        w = 1 / (w ** 2 + 0.00001)        # w为各个类别的权重,占比越大,权重越小        # Compute gen dice coef:        numerator = y_true * y_pred        numerator = w * K.sum(numerator, axis=(0, 1, 2, 3))        numerator = K.sum(numerator)         denominator = y_true + y_pred        denominator = w * K.sum(denominator, axis=(0, 1, 2, 3))        denominator = K.sum(denominator)         gen_dice_coef = numerator / denominator         return  2 * gen_dice_coef    return generalized_dice def generalized_dice_loss_fun(smooth=0):    def generalized_dice_loss(y_true,y_pred):        return 1 - generalized_dice_coef_fun(smooth=smooth)(y_true=y_true,y_pred=y_pred)    return generalized_dice_loss

3、tversky coefficient loss

# Ref: salehi17, "Twersky loss function for image segmentation using 3D FCDN"# -> the score is computed for each class separately and then summed# alpha=beta=0.5 : dice coefficient# alpha=beta=1   : tanimoto coefficient (also known as jaccard)# alpha+beta=1   : produces set of F*-scores# implemented by E. Moebel, 06/04/18def tversky_coef_fun(alpha,beta):    def tversky_coef(y_true, y_pred):        p0 = y_pred  # proba that voxels are class i        p1 = 1 - y_pred  # proba that voxels are not class i        g0 = y_true        g1 = 1 - y_true         # 求得每个sample的每个类的dice        num = K.sum(p0 * g0, axis=( 1, 2, 3))        den = num + alpha * K.sum(p0 * g1,axis= ( 1, 2, 3)) + beta * K.sum(p1 * g0, axis=( 1, 2, 3))        T = num / den  #[batch_size,class_num]                # 求得每个类的dice        dices=K.mean(T,axis=0) #[class_num]                return K.mean(dices)    return tversky_coef def tversky_coef_loss_fun(alpha,beta):    def tversky_coef_loss(y_true,y_pred):        return 1-tversky_coef_fun(alpha=alpha,beta=beta)(y_true=y_true,y_pred=y_pred)    return tversky_coef_loss

4、IoU loss

def IoU_fun(eps=1e-6):    def IoU(y_true, y_pred):        # if np.max(y_true) == 0.0:        #     return IoU(1-y_true, 1-y_pred) ## empty image; calc IoU of zeros        intersection = K.sum(y_true * y_pred, axis=[1,2,3])        union = K.sum(y_true, axis=[1,2,3]) + K.sum(y_pred, axis=[1,2,3]) - intersection        #        ious=K.mean((intersection + eps) / (union + eps),axis=0)        return K.mean(ious)    return IoU def IoU_loss_fun(eps=1e-6):    def IoU_loss(y_true,y_pred):        return 1-IoU_fun(eps=eps)(y_true=y_true,y_pred=y_pred)    return IoU_loss

关于“keras多任务多loss回传的示例分析”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,使各位可以学到更多知识,如果觉得文章不错,请把它分享出去让更多的人看到。

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

keras多任务多loss回传的示例分析

下载Word文档到电脑,方便收藏和打印~

下载Word文档

猜你喜欢

keras多任务多loss回传的示例分析

这篇文章将为大家详细讲解有关keras多任务多loss回传的示例分析,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。如果有一个多任务多loss的网络,那么在训练时,loss是如何工作的呢?比如下面:mode
2023-06-15

C++中多态的示例分析

小编给大家分享一下C++中多态的示例分析,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!1. 多态概念1.1 概念多态的概念:通俗来说,就是多种形态,具体点就是去完
2023-06-15

Python多线程的示例分析

这篇文章将为大家详细讲解有关Python多线程的示例分析,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。线程相对进程来说是“轻量级”的,操作系统用较少的资源创建和管理线程。程序中的线程在相同的内存空间中执行
2023-06-17

Java多线程的示例分析

这篇文章给大家分享的是有关Java多线程的示例分析的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。线程的创建1.继承Thread2.实现Runnable3.实现Callable使用继承Thread类来开发多线程的应
2023-06-20

python 多线程实现多任务的方法示例

目录1 多线程实现多任务1.1 什么是线程?1.2 一个程序实现多任务的方法1.3 多线程的创建方式1.3.1 创建threading.Thread对象1.3.2 继承threading.Thread,并重写run1.4 线程何时开启,何时
2022-06-02

Springboot任务之异步任务的示例分析

这篇文章将为大家详细讲解有关Springboot任务之异步任务的示例分析,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。一、SpringBoot--异步任务 1.1 什么是同步和异步同步是阻塞模式,异步是非
2023-06-15

SpringBoot任务之邮件任务的示例分析

这篇文章主要介绍SpringBoot任务之邮件任务的示例分析,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!01: 异步任务02: 定时任务一、SpringBoot--任务:邮件任务1.1 添加依赖(增加邮件支持)po
2023-06-15

Spring定时任务中@PostConstruct被多次执行异常的示例分析

这篇文章主要介绍Spring定时任务中@PostConstruct被多次执行异常的示例分析,文中介绍的非常详细,具有一定的参考价值,感兴趣的小伙伴们一定要看完!发现问题最近在项目中刚刚修改一个功能,代码正准备验证,启动Idea的debug模
2023-05-30

laravel多对多关联模型的示例分析

这篇文章给大家分享的是有关laravel多对多关联模型的示例分析的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。关联模型(多对多)多对多关系(抽象)例:一篇文章可能有多个关键词,一个关键词可能被多个文章使用。 关键
2023-06-20

Qt服务端多线程的示例分析

这篇文章给大家分享的是有关Qt服务端多线程的示例分析的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。 该例子仅使用两个线程, 一个线程负责监听新的连接,一个线程用来处理已经建立连接的客户端事件(此处可以用一个线程池
2023-06-19

awk多行合并的示例分析

今天就跟大家聊聊有关awk多行合并的示例分析,可能很多人都不太了解,为了让大家更加了解,小编给大家总结了以下内容,希望大家根据这篇文章可以有所收获。awknext语句使用:在循环逐行匹配,如果遇到next,就会跳过当前行,直接忽略下面语句。
2023-06-13

iOS中多线程的示例分析

这篇文章给大家分享的是有关iOS中多线程的示例分析的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。一、iOS的三种多线程技术1、NSThread–优点:NSThread 比其他两个轻量级,使用简单–缺点:需要自己管
2023-06-21

linux中sed多行的示例分析

这篇文章将为大家详细讲解有关linux中sed多行的示例分析,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。在正常情况下,sed将待处理的行读入模式空间,脚本中的命令就一条接着一条的对该行进行处理,直到脚本
2023-06-12

java中多线程的示例分析

这篇文章主要介绍了java中多线程的示例分析,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。java多线程并发与并行:并行: 指两个或多个事件在同一时刻发生 ( 同时发生 )
2023-06-20

Springboot中异步任务的示例分析

小编给大家分享一下Springboot中异步任务的示例分析,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!异步任务启动类@MapperScan("com.topch
2023-06-17

JPA多数据源分布式事务的示例分析

这篇文章主要介绍了JPA多数据源分布式事务的示例分析,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。问题背景在解决mysql字段脱敏处理时,结合sharding-jdbc的脱敏
2023-06-29

编程热搜

  • Python 学习之路 - Python
    一、安装Python34Windows在Python官网(https://www.python.org/downloads/)下载安装包并安装。Python的默认安装路径是:C:\Python34配置环境变量:【右键计算机】--》【属性】-
    Python 学习之路 - Python
  • chatgpt的中文全称是什么
    chatgpt的中文全称是生成型预训练变换模型。ChatGPT是什么ChatGPT是美国人工智能研究实验室OpenAI开发的一种全新聊天机器人模型,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,并协助人类完成一系列
    chatgpt的中文全称是什么
  • C/C++中extern函数使用详解
  • C/C++可变参数的使用
    可变参数的使用方法远远不止以下几种,不过在C,C++中使用可变参数时要小心,在使用printf()等函数时传入的参数个数一定不能比前面的格式化字符串中的’%’符号个数少,否则会产生访问越界,运气不好的话还会导致程序崩溃
    C/C++可变参数的使用
  • css样式文件该放在哪里
  • php中数组下标必须是连续的吗
  • Python 3 教程
    Python 3 教程 Python 的 3.0 版本,常被称为 Python 3000,或简称 Py3k。相对于 Python 的早期版本,这是一个较大的升级。为了不带入过多的累赘,Python 3.0 在设计的时候没有考虑向下兼容。 Python
    Python 3 教程
  • Python pip包管理
    一、前言    在Python中, 安装第三方模块是通过 setuptools 这个工具完成的。 Python有两个封装了 setuptools的包管理工具: easy_install  和  pip , 目前官方推荐使用 pip。    
    Python pip包管理
  • ubuntu如何重新编译内核
  • 改善Java代码之慎用java动态编译

目录