/kernel/linux/linux-5.10/net/sched/ |
D | sch_mq.c | 26 struct net_device *dev = qdisc_dev(sch); in mq_offload() 54 struct net_device *dev = qdisc_dev(sch); in mq_destroy() 70 struct net_device *dev = qdisc_dev(sch); in mq_init() 108 struct net_device *dev = qdisc_dev(sch); in mq_attach() 131 struct net_device *dev = qdisc_dev(sch); in mq_change_real_num_tx() 153 struct net_device *dev = qdisc_dev(sch); in mq_dump() 199 struct net_device *dev = qdisc_dev(sch); in mq_queue_get() 218 struct net_device *dev = qdisc_dev(sch); in mq_graft() 234 qdisc_offload_graft_helper(qdisc_dev(sch), sch, new, *old, in mq_graft() 281 struct net_device *dev = qdisc_dev(sch); in mq_walk()
|
D | sch_mqprio.c | 32 struct net_device *dev = qdisc_dev(sch); in mqprio_destroy() 136 struct net_device *dev = qdisc_dev(sch); in mqprio_init() 291 struct net_device *dev = qdisc_dev(sch); in mqprio_attach() 312 struct net_device *dev = qdisc_dev(sch); in mqprio_change_real_num_tx() 334 struct net_device *dev = qdisc_dev(sch); in mqprio_queue_get() 345 struct net_device *dev = qdisc_dev(sch); in mqprio_graft() 407 struct net_device *dev = qdisc_dev(sch); in mqprio_dump() 493 struct net_device *dev = qdisc_dev(sch); in mqprio_find() 515 struct net_device *dev = qdisc_dev(sch); in mqprio_dump_class() 540 struct net_device *dev = qdisc_dev(sch); in mqprio_dump_class_stats() [all …]
|
D | sch_fifo.c | 57 struct net_device *dev = qdisc_dev(sch); in fifo_offload_init() 71 struct net_device *dev = qdisc_dev(sch); in fifo_offload_destroy() 103 u32 limit = qdisc_dev(sch)->tx_queue_len; in __fifo_init() 106 limit *= psched_mtu(qdisc_dev(sch)); in __fifo_init() 119 bypass = sch->limit >= psched_mtu(qdisc_dev(sch)); in __fifo_init()
|
D | sch_teql.c | 78 struct net_device *dev = qdisc_dev(sch); in teql_enqueue() 102 struct net_device *m = qdisc_dev(q); in teql_dequeue() 171 struct net_device *dev = qdisc_dev(sch); in teql_qdisc_init() 297 struct net_device *slave = qdisc_dev(q); in teql_master_xmit() 369 struct net_device *slave = qdisc_dev(q); in teql_master_open() 422 if (new_mtu > qdisc_dev(q)->mtu) in teql_master_mtu()
|
D | sch_multiq.c | 104 netdev_get_tx_queue(qdisc_dev(sch), q->curband))) { in multiq_dequeue() 136 netdev_get_tx_queue(qdisc_dev(sch), curband))) { in multiq_peek() 179 if (!netif_is_multiqueue(qdisc_dev(sch))) in multiq_tune() 186 qopt->bands = qdisc_dev(sch)->real_num_tx_queues; in multiq_tune() 250 q->max_bands = qdisc_dev(sch)->num_tx_queues; in multiq_init()
|
D | sch_plug.c | 133 q->limit = qdisc_dev(sch)->tx_queue_len in plug_init() 134 * psched_mtu(qdisc_dev(sch)); in plug_init()
|
D | sch_taprio.c | 202 struct net_device *dev = qdisc_dev(sch); in find_entry_to_transmit() 450 struct net_device *dev = qdisc_dev(sch); in taprio_peek_soft() 494 struct net_device *dev = qdisc_dev(sch); in taprio_peek_offload() 531 struct net_device *dev = qdisc_dev(sch); in taprio_dequeue_soft() 619 struct net_device *dev = qdisc_dev(sch); in taprio_dequeue_offload() 1101 qdev = qdisc_dev(q->root); in taprio_dev_notifier() 1324 struct net_device *dev = qdisc_dev(sch); in taprio_parse_clockid() 1451 struct net_device *dev = qdisc_dev(sch); in taprio_change() 1620 struct net_device *dev = qdisc_dev(sch); in taprio_reset() 1634 struct net_device *dev = qdisc_dev(sch); in taprio_destroy() [all …]
|
D | sch_tbf.c | 144 struct net_device *dev = qdisc_dev(sch); in tbf_offload_change() 162 struct net_device *dev = qdisc_dev(sch); in tbf_offload_destroy() 406 if (max_size < psched_mtu(qdisc_dev(sch))) in tbf_change() 408 max_size, qdisc_dev(sch)->name, in tbf_change() 409 psched_mtu(qdisc_dev(sch))); in tbf_change()
|
D | sch_etf.c | 218 skb->dev = qdisc_dev(sch); in timesortedlist_drop() 242 skb->dev = qdisc_dev(sch); in timesortedlist_remove() 350 struct net_device *dev = qdisc_dev(sch); in etf_init() 454 struct net_device *dev = qdisc_dev(sch); in etf_destroy()
|
D | sch_cbs.c | 346 qdev = qdisc_dev(q->qdisc); in cbs_dev_notifier() 364 struct net_device *dev = qdisc_dev(sch); in cbs_change() 404 struct net_device *dev = qdisc_dev(sch); in cbs_init() 435 struct net_device *dev = qdisc_dev(sch); in cbs_destroy()
|
D | sch_ingress.c | 80 struct net_device *dev = qdisc_dev(sch); in ingress_init() 219 struct net_device *dev = qdisc_dev(sch); in clsact_init()
|
D | sch_api.c | 263 if (!qdisc_dev(root)) in qdisc_match_from_root() 270 hash_for_each_possible_rcu(qdisc_dev(root)->qdisc_hash, q, hash, handle, in qdisc_match_from_root() 282 hash_add_rcu(qdisc_dev(q)->qdisc_hash, &q->hash, q->handle); in qdisc_hash_add() 801 sch = qdisc_lookup(qdisc_dev(sch), TC_H_MAJ(parentid)); in qdisc_tree_reduce_backlog() 822 struct net_device *dev = qdisc_dev(sch); in qdisc_offload_dump_helper() 905 tcm->tcm_ifindex = qdisc_dev(q)->ifindex; in tc_fill_qdisc() 1726 if (!qdisc_dev(root) || !recur) in tc_dump_qdisc_root() 1729 hash_for_each(qdisc_dev(root)->qdisc_hash, b, q, hash) { in tc_dump_qdisc_root() 1827 tcm->tcm_ifindex = qdisc_dev(q)->ifindex; in tc_fill_tclass() 2194 if (!qdisc_dev(root) || !recur) in tc_dump_tclass_root() [all …]
|
D | sch_ets.c | 107 struct net_device *dev = qdisc_dev(sch); in ets_offload_change() 148 struct net_device *dev = qdisc_dev(sch); in ets_offload_destroy() 164 struct net_device *dev = qdisc_dev(sch); in ets_offload_graft() 645 quanta[i] = psched_mtu(qdisc_dev(sch)); in ets_qdisc_change()
|
D | sch_red.c | 187 struct net_device *dev = qdisc_dev(sch); in red_offload() 449 struct net_device *dev = qdisc_dev(sch); in red_dump_stats() 493 qdisc_offload_graft_helper(qdisc_dev(sch), sch, new, old, in red_graft_offload()
|
D | sch_prio.c | 142 struct net_device *dev = qdisc_dev(sch); in prio_offload() 310 qdisc_offload_graft_helper(qdisc_dev(sch), sch, new, *old, in prio_graft()
|
D | sch_gred.c | 313 struct net_device *dev = qdisc_dev(sch); in gred_offload() 751 sch->limit = qdisc_dev(sch)->tx_queue_len in gred_init() 752 * psched_mtu(qdisc_dev(sch)); in gred_init()
|
D | sch_fq.c | 387 skb->dev = qdisc_dev(sch); in fq_erase_head() 934 q->quantum = 2 * psched_mtu(qdisc_dev(sch)); in fq_init() 935 q->initial_quantum = 10 * psched_mtu(qdisc_dev(sch)); in fq_init()
|
D | sch_codel.c | 199 q->params.mtu = psched_mtu(qdisc_dev(sch)); in codel_init()
|
D | sch_fq_codel.c | 466 q->quantum = psched_mtu(qdisc_dev(sch)); in fq_codel_init() 472 q->cparams.mtu = psched_mtu(qdisc_dev(sch)); in fq_codel_init()
|
D | sch_generic.c | 398 dev = qdisc_dev(q); in qdisc_restart() 767 unsigned int qlen = qdisc_dev(qdisc)->tx_queue_len; in pfifo_fast_init() 1002 dev_put(qdisc_dev(qdisc)); in qdisc_destroy()
|
D | sch_cake.c | 2300 u32 mtu = psched_mtu(qdisc_dev(sch)); in cake_config_besteffort() 2319 u32 mtu = psched_mtu(qdisc_dev(sch)); in cake_config_precedence() 2408 u32 mtu = psched_mtu(qdisc_dev(sch)); in cake_config_diffserv8() 2452 u32 mtu = psched_mtu(qdisc_dev(sch)); in cake_config_diffserv4() 2489 u32 mtu = psched_mtu(qdisc_dev(sch)); in cake_config_diffserv3() 2565 max(sch->limit * psched_mtu(qdisc_dev(sch)), in cake_reconfigure()
|
D | sch_cbq.c | 902 cl->quantum > 32*qdisc_dev(cl->qdisc)->mtu) { in cbq_normalize_quanta() 905 cl->quantum = qdisc_dev(cl->qdisc)->mtu/2 + 1; in cbq_normalize_quanta() 1204 q->link.allot = psched_mtu(qdisc_dev(sch)); in cbq_init()
|
D | sch_pie.c | 38 u32 mtu = psched_mtu(qdisc_dev(sch)); in pie_drop_early()
|
D | sch_drr.c | 82 quantum = psched_mtu(qdisc_dev(sch)); in drr_change_class()
|
/kernel/linux/linux-5.10/include/trace/events/ |
D | qdisc.h | 56 __string( dev, qdisc_dev(q) ) 63 __assign_str(dev, qdisc_dev(q)); 81 __string( dev, qdisc_dev(q) ) 88 __assign_str(dev, qdisc_dev(q));
|