• 自动驾驶场景下TCP协议参数优化调整案例分享


    RTT

    往返时间,从tcp协议栈决定发包,到收到回包的时间。

    包含本地驱动,网卡硬件,网线,交换机,收包方处理的耗时。需注意如果开了delayed ack,协议栈未做特殊处理(默认没做),则RTT可能包含delayed ack时间。

    delay ack

    理论上来说有可能会延迟40ms发ack;实际对我们来说概率非常小,详见delayed ack代码和实车环境影响分析

    cwnd  40

    拥塞窗口。in flights数据包的数量不能大于cwnd。linux是按照包数而不是数据字节来管理的。

    当开启gso后,会根据skb→size / mss来计算发出的包量;4.9的内核收到ack时也会按照确认的包数量扩大拥塞窗口(老内核不是)。

    所以gso不影响拥塞窗口计算。

    initcwnd  30

    初始拥塞窗口。当连接刚建立,或者重置拥塞窗口时,使用这个值。

    RTO 4ms

    如果发出的数据包,未得到回复,会在rto时间之后进行重传。

    在丢包场景下,rto就是丢包带来的额外延迟。

    linux内核代码写死了全局rto_min=200ms,可以通过路由表ip route change ..... rto_min 10ms覆盖全局的rto_min

    rto需要跟quickack联动,默认delayed ack可能40ms才回ack包,rto_min < ack时间可能导致大量无效重传。

    快速重传

    当收到3个“错误”的ack时,对未确认数据包进行重传。

    涉及的扩展算法较多,对我们影响不大,不展开。

    TLP 4ms

    当发包端最后一个数据包丢包时,响应ack达不到三个,无法触发快速重传。

    此时会把最后一个包重传一下,触发对端响应。

    但在linux内核实现时,TLP和RTO共用了一个定时器;

    判断1: tlp时间 = max(..., 200ms),这200ms是写死的,除了改内核代码外无法修改

    接着判断2: tlp时间 = min( tlp时间, rto时间)

    因为rto_min可以被路由表覆盖,实际上在我们修改rto_min后,tlp时间等于rto时间

    从结果上来看,非常的蛋疼。因为在局域网情况下,TLP时间总是小于RTO时间,导致未能起到尽快触发重传的效果,反而还抢了RTO的定时器

    TODO 实验记录单独记录文档,引用到这里

    下图中 8253 就是一个 TLP 包,因为 50362853 + 12567 - 983 = 50374437。12ms 后重传了尾包

    cubic

    linux默认使用的拥塞控制算法。windows多个版本也是使用此算法。

    启动时使用initcwnd,每个rtt窗口倍增,达到ssthresh后线性增长。

    发生丢包时cwnd=1,同时调整ssthresh。丢包的cwnd=1是在tcp协议栈写死的,不受拥塞控制算法影响,见tcp_enter_lost函数。

    bbr

    google做的拥塞控制算法,bbr比传统拥塞策略要先进很多,主要体现在:

    1 摒弃了用丢包触发限速的策略,会通过延迟的变动来调整对网络情况的探测;

    2 除了in flights包数量控制外,还会控制发包的频率间隔。

    但是bbr的很多设计细节不适合自动驾驶领域。

    例如对rtt<1ms场景的适配,传输的DAG优先级,定频流量场景等都可以做针对性优化,能取得非常大的提升。

    长期来看我们会针对自动驾驶场景自己写拥塞算法,故不把使用bbr算法纳入计划中。

    备注:平行驾驶推流通常会内置拥塞算法,这里建议尝试bbr。

    gso/gro

    gso允许tcp协议栈直接发送大报文,且无需计算checksum,由网卡负责拆包+计算checksum。

    gro是在napi类型的网卡中断处理时,将一次循环中收到的数据包合并后,再交给上层协议栈处理。(napi是硬中断触发后一直轮询直到数据为空)

    在我们用的4.9版本内核里,拥塞窗口的变动考虑了gso/gro的情况。

    gso/gro会导致tcp协议栈收发的数据包尺寸大于mss和mtu,并减少收发的包数量。会带来一定的附加影响。

    从实车抓包来看,收包方抓到的包基本都经过gro处理,发包方收到的ack也是明显收到gro影响的。

    但是结合内核gro相关代码 + 火焰图分析来看,感觉gro触发几率很小。gro收包的CPU占用0.08,普通收包的CPU占用2.74。

    不确定是分析过程有问题,还是xavier在网卡硬件层面实现了gro。

    时间有限不展开分析,后续相信实际抓包情况,认为gro大量生效。

    TODO-低优先级:分析gro生效路径

    二 自动驾驶的网络模型分析

    网络丢包的理论模型

    上图是一个简化的从发包到收包的环节描述。

    各个环节都可能因为故障导致丢包,如md5错误,网卡硬件错误等。

    因故障导致的丢包,在正常环境中是非常非常少见的。一般出现在网口接触不良,网线损坏等情况下。

    除了故障之外,各环节的缓冲区满也会导致丢包,这是实际场景中最常见的情况。

    例如xavier的内置switch是SJA1105型号,根据其手册buffer=128KB,根据我们的实验测试,也能得到相应的结论。

    xavier上linux内核的发包缓冲区满时,会阻止socket发包(socket不可写);收包缓冲区满时tcp的滑动窗口会降为0。

    故重点考察的是网卡和switch缓冲区满导致的丢包。

    无论是对网卡,还是switch,当入流量 > 出流量时,缓冲区开始积压,积压超过buffer size时就会丢包。

    根据我们的实验可以证明这一点:

    TODO 这里单抽一个文档,贴代码,测试环境,详细记录,引用到这里

    udp发包实验测网卡缓冲区大小:

    1400字节,10us一个包,延迟增加1800us左右开始丢包。即180个包,250KB积压开始丢包。

    700字节,设10us一个包,实际7.7ms左右一个包,延迟增加3000us左右开始丢包(不稳定,可能是发包速率就不稳定)。即390个包,273KB积压开始丢包。

    14000字节,100us一个包,延迟增加1800us左右开始丢包。即18个包,250KB积压开始丢包。

    根据实车观察,一旦触发丢包,会在几毫秒内有很大的丢包率。

    现象1:dup ack很少,远少于rto/tlp超时触发的次数。

    现象2:  rto/tlp触发时,一般都是连续一段数据都需要重传。

    这个现象符合理论分析。当入流量>出流量时,缓冲区增加,当缓冲区满时丢包。

    一旦触发丢包,入流量无改善的情况下,会有相当高的丢包率。

    带宽 ,RTT,窗口

    带宽/ms = 窗口 * 每ms包数量 = 窗口 ÷ RTT

    以xavier的1Gb/s网络计算:

    每个数据包的发送速度 = 1.5KB ÷ 1Gb/s = 0.012ms

    打满1Gb/s带宽,需要每秒传输83个1.5KB的数据包 => 打满1Gb/s带宽,窗口 >= 83 * rtt

    以switch 128KB buffer计算:

    积压85个包会打满缓冲区,85 * 0.012ms = 1ms,即当入流量大于出流量时,缓存积压的包会增加,由此会导致rtt上升。

    这也是bbr基于rtt变化调整发送速率的理论基础。

    使用ss -i -t实车观察rtt:

    在网络良好且空闲时一般在0.25ms左右;

    在流量上升时,一般在0.5-1ms(缓存积压+收包端CPU0繁忙导致耗时增加);

    如果持续超过1.6ms,一般丢包就比较严重了。

    因为是手动采集了100多次数据做的观察,具体数值不够准确,但大致趋势应该是没错的。

    实验:rtt,带宽随cwnd变化

    不锁的情况,speed [829.35 Mb/s],rtt:1.467/0.181,cwnd:149

    锁40的情况,见抓包no_drop,speed [781.53 Mb/s],rtt:0.408/0.08,cwnd:40

    锁30的情况,speed [707.76 Mb/s],rtt:0.314/0.057,cwnd:30

    锁20的情况,speed [590.34 Mb/s],rtt:0.293/0.059,cwnd:20

    自动驾驶的场景特征

    1 自动驾驶中大多数流量,是定频发生的。

    2 不同流量(topic)有不同的优先级(DAG优先级)。

    3 硬件环境是已知的,如6*xavier的网络拓扑,2*orin的网络拓扑。当实际探测到的硬件环境与设计不符时,应报故障并做降级处理。

    丢包场景分两种:

    场景1 MAP在中间件中的多个topic流量同时触发。此场景的特点是持续时间短,一般<10ms。

    场景2 MAP之外的持续大流量。此场景具有不确定性,如果有人手动拷数据包,则可能是持续十几分钟的高丢包环境。

    场景3 MAP之外的短暂大流量。如filebeat突然上传数据,激光雷达的udp点云。

    目前根据在多个车型上tcpdump抓包总计3小时观察,丢包在80%的情况下持续<10ms,20%的情况下持续10-20ms,尚未看到前后两帧数据(间隔100ms)都出现丢包的情况。

    TODO-重点:通过毫秒级流量监控,做更全面的流量模型分析

    三 参数调整方案

    可以调整的方案,重点集中在几组:

    修改重传间隔: rto_min + quickack,TLP开关

    修改窗口上限:tcp_rmem控制滑动窗口,路由表cwnd_limit控制拥塞窗口上限

    修改窗口初始值:initcwnd + ssthresh + tcp_slow_start_after_idle

    修改快速重传门限:tcp_reordering

    参数含义和修改方法参考:ip route下的tcp参数设置    /proc/sys/net/ipv4/tcp相关参数说明

    1 重传间隔修改

    因无法完全规避丢包,通过修改重传间隔可以减少丢包带来的影响。

    根据前面的理论分析,switch缓冲区打满最多使得rtt上升1ms。

    实车观察到的rtt,最高到1.87ms,同一时刻的tcpdump已能观察到较多丢包。

    即使再计算收包方CPU0打满的情况,最多也是增加2ms延迟(网卡硬件缓冲区满丢包)。

    理论上在有TLP时,无效重传应该不会很多。改到8ms可能都是可行的,但是不确定各种极端场景下是否会触发大量无效重传,需要大量测试&观察验证。

    稳妥起见,将rto_min设置为10ms,实车观察到的rto都是16ms。这是因为rto_min设置有坑,具体看ip route下的tcp参数设置内关于rto_min的描述

    TODO-重点:实车调参,尝试把rto_min降低到7ms,看是否会触发大量无效重传。

    TLP开关默认开启,不需要关闭

    关闭的收益是在丢包发生时,直接开始重传,减少一次rtt耗时。在已经发送丢包的情况下,这一次rtt的耗时不算什么。

    打开的收益是在ack丢包时,不按丢包的流程走(会把cwnd降低为1),更友好。

    理论上即使关闭了TLP影响也不大,因为还有“拥塞撤销机制”:

    当触发重传,ack回包发现不需要重传时,cwnd会回复。但是具体效果得详细看内核代码+测试,时间有限未深入确认。

    保险起见可以不关闭TLP。

    2 窗口上限修改

    拥塞窗口管理的是in flight数据包总数。这些数据包可能在各个环节上跑着(也可能丢了)。

    考虑到各环节都是需要耗时的,cwnd通常不会全都集中在switch buffer上。

    但是在空闲时突然发包的情况下,cwnd更容易集中卡在一个点上,比较危险。

    这里给出两个典型值:

    1 cwnd_limit=80

    即使运气不好,单个tcp连接的in flight数据包都积压在switch buffer上,也不会丢包。

    当rtt=1ms时,单tcp连接可以把流量打到800Mb/s以上,完全够用了。

    即使网络环境差rtt=1.5ms,单tcp连接可以把流量打到650Mb/s以上,也是够用的。

    2 cwnd_limit=40

    即使运气很不好,两个tcp连接的in flight数据包都积压在switch buffer上,也不会丢包。

    在rtt=0.8ms时,单tcp连接可以把流量打到500Mb/s以上,不是特别好,基本也够用。

    在rtt=0.5ms时,单tcp连接可以把流量打到700Mb/s以上,够用了。

    从另一个角度来看,cwnd=40  =>  60KB/rtt,60KB以下数据一次rtt时间,120KB两次rtt时间,180KB三次rtt时间可以完成传输

    cwnd_limit=40等于是牺牲一定的平均延迟,来降低丢包率

    TODO-重点-优先:实车观察丢包时流量超标原因,调参。

    如果丢包原因不受我们控制,例如一个topic给三端发,或者udp流量,或者102-106之外的大流量,则cwnd_limit倾向于调到80

    另外cwnd_limit对丢包的影响可能需要较长时间观察。可以调整一个cwnd值观察几天/一周,确保统计数据稳定后,换cwnd值继续观察。作为偏长期的技术优化项

    目前cwnd提测给的40,观察了四辆车*三天,统计数据没有观察到p50,p90,p99,p999传输延迟上升。

    但是也未能观察到丢包率下降。需通过毫秒级监控分析引发丢包的主要原因。

    备注:通过抓包能看到cwnd设置是生效的。

    3 窗口初始值修改

    tcp_slow_start_after_idle默认打开,不修改。

    打开的理由:

    1 在我们的环境下,丢包几乎不会持续到100ms以上,所以10HZ定频的topic不需要在发下一帧时继承上一帧的窗口设置。

    2 这是全局参数,影响所有连接,需要考虑对平行驾驶,鹰眼,大屏,数据上云等业务等影响,修改有风险。

    3 如果一个连接“在使用中增长cwnd”,其cwnd对应的in flight数据包通常分布在各个环节上;而从空闲开始突然按cwnd发包的连接,有更大的概率将in flight数据包集中在一个环节上从而引起丢包。

       通过重置,可以避免空闲状态下,直接使用之前的大cwnd连续发出大流量。

       102-107之间的流量设置了cwnd上限,此问题不突出,对未受我们管理的其他业务有很大的价值。遗憾的是其他业务的rto_min也未做调整,需要200ms空闲才会重置cwnd。

    TODO-重点:如实车观察到大屏/鹰眼业务的突发流量导致大量丢包,出相应解决方案,例如telemtics通过setsockopt设置tcp参数

    initcwnd暂定30, ssthresh暂定40:

    设置逻辑:

    传统拥塞控制中,不丢包就增加cwnd,丢包就降为1这个策略太傻了。

    增加策略会顶着rtt上升,奔着丢包而去。

    丢包之后又自己把自己按在地上摩擦。

    通过将initcwnd设置到接近cwnd_limit,ssthresh设置为cwnd_limit,直接初始化时就按我们的理想速率发送。

    之所以initcwnd略小于cwnd_limit,是为了避免在空闲时直接while循环发出cwnd大小数据,导致数据包集中在一个环节上。

    修改cwnd_limit后,需要记得同步修改initcwnd和cwnd_limit

    4 快速重传门限

    不修改

    理论上来说,在开启gro后,由于收包方收到的是合并后的数据包,回复的ack会显著变少。而且当连续10ms丢包率都较高时,ack会进一步减少。

    在我们的场景下,快速重传未能发挥原本tcp协议设计中的作用。

    从实车抓包来看:

    现象1:dup ack很少,连续三个dup ack非常少,远少于rto/tlp超时触发的次数。很少看到有触发快速重传的场景。

    现象2:  rto/tlp触发时,一般都是连续一段数据都需要重传。丢包经常有连续性。

    tcp_reordering参数可以把默认的三个dup ack包触发快速重传,改成一个或两个dup ack即触发快速重传。(改更大也行)

    考虑到以下几个因素,本次不做改动:

    1 这是全局参数,影响所有连接,需要考虑对平行驾驶,鹰眼,大屏,数据上云等业务等影响,修改有风险。

    2 从实车抓包来看,即使快速重传门限改成1,也只是减少5-10%的超时重传。收益不是非常大。

    5 优化指标

    从结果来看,我们要优化的是两个指标:

    1 降低因丢包-超时重传引起高延迟的概率

    观察pub_recv./local_planning.p99的各分位数值

    此延迟一般会存在跳变,从未触发超时重传的个位数毫秒,跳变到丢包的16+ms。

    找出现跳变的百分位数值,大致上可以判断超时重传出现的概率。

    目前尚未观察到明显优化,需依赖340的毫秒级流量监控分析丢包瞬间流量打满的原因。

    2 降低发生丢包-超时重传后带来的延迟

    直接看pub_recv./local_planning的p99.p99数值即可。

    目前已可以从100ms降低到20ms左右,调整rto_min可进一步降低。

    工程上实现

    xavier 网络参数调整。调整后,约车实车对比,planning p9999网络延迟降低了 1/4

    需要在下个要上线的版本把
    cwnd = 40
    initcwnd = 30
    initrwnd = 30
    ssthresh = 40

    改为 :
    cwnd = 30
    initcwnd = 25
    initrwnd = 25
    ssthresh = 30

    在东风 7211 车上测试的,之前 planning.pub_recv p9999 在 27ms,调整后,约 18ms,差不多正好卡在我们 OKR 的 20ms网络延迟

  • 相关阅读:
    chatgpt赋能python:Python文件备份:保障数据安全,高效便捷的备份方案
    人工智能的前世今生与未来
    人大女王大学金融硕士——人生的每一刻,都是在为自己的明天铺垫
    如何入门Python——学习Python的指南针
    mysql中SUBSTRING_INDEX函数用法详解
    【排序算法】计数排序(CountSort)
    客服必看:售后话术
    利用XXXXXXXXMIND管理。
    【C++】动态内存管理 ① ( C 语言中的动态内存管理 | C 语言 内存申请 | C 语言 内存释放 | 代码示例 )
    springboot足球运动员训练计划管理系统的设计与实现毕业设计源码281444
  • 原文地址:https://blog.csdn.net/John_ToStr/article/details/139629467