Home
last modified time | relevance | path

Searched refs:qdisc_dev (Results 1 – 25 of 34) sorted by relevance

12

/kernel/linux/linux-5.10/net/sched/
Dsch_mq.c26 struct net_device *dev = qdisc_dev(sch); in mq_offload()
54 struct net_device *dev = qdisc_dev(sch); in mq_destroy()
70 struct net_device *dev = qdisc_dev(sch); in mq_init()
108 struct net_device *dev = qdisc_dev(sch); in mq_attach()
131 struct net_device *dev = qdisc_dev(sch); in mq_change_real_num_tx()
153 struct net_device *dev = qdisc_dev(sch); in mq_dump()
199 struct net_device *dev = qdisc_dev(sch); in mq_queue_get()
218 struct net_device *dev = qdisc_dev(sch); in mq_graft()
234 qdisc_offload_graft_helper(qdisc_dev(sch), sch, new, *old, in mq_graft()
281 struct net_device *dev = qdisc_dev(sch); in mq_walk()
Dsch_mqprio.c32 struct net_device *dev = qdisc_dev(sch); in mqprio_destroy()
136 struct net_device *dev = qdisc_dev(sch); in mqprio_init()
291 struct net_device *dev = qdisc_dev(sch); in mqprio_attach()
312 struct net_device *dev = qdisc_dev(sch); in mqprio_change_real_num_tx()
334 struct net_device *dev = qdisc_dev(sch); in mqprio_queue_get()
345 struct net_device *dev = qdisc_dev(sch); in mqprio_graft()
407 struct net_device *dev = qdisc_dev(sch); in mqprio_dump()
493 struct net_device *dev = qdisc_dev(sch); in mqprio_find()
515 struct net_device *dev = qdisc_dev(sch); in mqprio_dump_class()
540 struct net_device *dev = qdisc_dev(sch); in mqprio_dump_class_stats()
[all …]
Dsch_fifo.c57 struct net_device *dev = qdisc_dev(sch); in fifo_offload_init()
71 struct net_device *dev = qdisc_dev(sch); in fifo_offload_destroy()
103 u32 limit = qdisc_dev(sch)->tx_queue_len; in __fifo_init()
106 limit *= psched_mtu(qdisc_dev(sch)); in __fifo_init()
119 bypass = sch->limit >= psched_mtu(qdisc_dev(sch)); in __fifo_init()
Dsch_teql.c78 struct net_device *dev = qdisc_dev(sch); in teql_enqueue()
102 struct net_device *m = qdisc_dev(q); in teql_dequeue()
171 struct net_device *dev = qdisc_dev(sch); in teql_qdisc_init()
297 struct net_device *slave = qdisc_dev(q); in teql_master_xmit()
369 struct net_device *slave = qdisc_dev(q); in teql_master_open()
422 if (new_mtu > qdisc_dev(q)->mtu) in teql_master_mtu()
Dsch_multiq.c104 netdev_get_tx_queue(qdisc_dev(sch), q->curband))) { in multiq_dequeue()
136 netdev_get_tx_queue(qdisc_dev(sch), curband))) { in multiq_peek()
179 if (!netif_is_multiqueue(qdisc_dev(sch))) in multiq_tune()
186 qopt->bands = qdisc_dev(sch)->real_num_tx_queues; in multiq_tune()
250 q->max_bands = qdisc_dev(sch)->num_tx_queues; in multiq_init()
Dsch_plug.c133 q->limit = qdisc_dev(sch)->tx_queue_len in plug_init()
134 * psched_mtu(qdisc_dev(sch)); in plug_init()
Dsch_taprio.c202 struct net_device *dev = qdisc_dev(sch); in find_entry_to_transmit()
450 struct net_device *dev = qdisc_dev(sch); in taprio_peek_soft()
494 struct net_device *dev = qdisc_dev(sch); in taprio_peek_offload()
531 struct net_device *dev = qdisc_dev(sch); in taprio_dequeue_soft()
619 struct net_device *dev = qdisc_dev(sch); in taprio_dequeue_offload()
1101 qdev = qdisc_dev(q->root); in taprio_dev_notifier()
1324 struct net_device *dev = qdisc_dev(sch); in taprio_parse_clockid()
1451 struct net_device *dev = qdisc_dev(sch); in taprio_change()
1620 struct net_device *dev = qdisc_dev(sch); in taprio_reset()
1634 struct net_device *dev = qdisc_dev(sch); in taprio_destroy()
[all …]
Dsch_tbf.c144 struct net_device *dev = qdisc_dev(sch); in tbf_offload_change()
162 struct net_device *dev = qdisc_dev(sch); in tbf_offload_destroy()
406 if (max_size < psched_mtu(qdisc_dev(sch))) in tbf_change()
408 max_size, qdisc_dev(sch)->name, in tbf_change()
409 psched_mtu(qdisc_dev(sch))); in tbf_change()
Dsch_etf.c218 skb->dev = qdisc_dev(sch); in timesortedlist_drop()
242 skb->dev = qdisc_dev(sch); in timesortedlist_remove()
350 struct net_device *dev = qdisc_dev(sch); in etf_init()
454 struct net_device *dev = qdisc_dev(sch); in etf_destroy()
Dsch_cbs.c346 qdev = qdisc_dev(q->qdisc); in cbs_dev_notifier()
364 struct net_device *dev = qdisc_dev(sch); in cbs_change()
404 struct net_device *dev = qdisc_dev(sch); in cbs_init()
435 struct net_device *dev = qdisc_dev(sch); in cbs_destroy()
Dsch_ingress.c80 struct net_device *dev = qdisc_dev(sch); in ingress_init()
219 struct net_device *dev = qdisc_dev(sch); in clsact_init()
Dsch_api.c263 if (!qdisc_dev(root)) in qdisc_match_from_root()
270 hash_for_each_possible_rcu(qdisc_dev(root)->qdisc_hash, q, hash, handle, in qdisc_match_from_root()
282 hash_add_rcu(qdisc_dev(q)->qdisc_hash, &q->hash, q->handle); in qdisc_hash_add()
801 sch = qdisc_lookup(qdisc_dev(sch), TC_H_MAJ(parentid)); in qdisc_tree_reduce_backlog()
822 struct net_device *dev = qdisc_dev(sch); in qdisc_offload_dump_helper()
905 tcm->tcm_ifindex = qdisc_dev(q)->ifindex; in tc_fill_qdisc()
1726 if (!qdisc_dev(root) || !recur) in tc_dump_qdisc_root()
1729 hash_for_each(qdisc_dev(root)->qdisc_hash, b, q, hash) { in tc_dump_qdisc_root()
1827 tcm->tcm_ifindex = qdisc_dev(q)->ifindex; in tc_fill_tclass()
2194 if (!qdisc_dev(root) || !recur) in tc_dump_tclass_root()
[all …]
Dsch_ets.c107 struct net_device *dev = qdisc_dev(sch); in ets_offload_change()
148 struct net_device *dev = qdisc_dev(sch); in ets_offload_destroy()
164 struct net_device *dev = qdisc_dev(sch); in ets_offload_graft()
645 quanta[i] = psched_mtu(qdisc_dev(sch)); in ets_qdisc_change()
Dsch_red.c187 struct net_device *dev = qdisc_dev(sch); in red_offload()
449 struct net_device *dev = qdisc_dev(sch); in red_dump_stats()
493 qdisc_offload_graft_helper(qdisc_dev(sch), sch, new, old, in red_graft_offload()
Dsch_prio.c142 struct net_device *dev = qdisc_dev(sch); in prio_offload()
310 qdisc_offload_graft_helper(qdisc_dev(sch), sch, new, *old, in prio_graft()
Dsch_gred.c313 struct net_device *dev = qdisc_dev(sch); in gred_offload()
751 sch->limit = qdisc_dev(sch)->tx_queue_len in gred_init()
752 * psched_mtu(qdisc_dev(sch)); in gred_init()
Dsch_fq.c387 skb->dev = qdisc_dev(sch); in fq_erase_head()
934 q->quantum = 2 * psched_mtu(qdisc_dev(sch)); in fq_init()
935 q->initial_quantum = 10 * psched_mtu(qdisc_dev(sch)); in fq_init()
Dsch_codel.c199 q->params.mtu = psched_mtu(qdisc_dev(sch)); in codel_init()
Dsch_fq_codel.c466 q->quantum = psched_mtu(qdisc_dev(sch)); in fq_codel_init()
472 q->cparams.mtu = psched_mtu(qdisc_dev(sch)); in fq_codel_init()
Dsch_generic.c398 dev = qdisc_dev(q); in qdisc_restart()
767 unsigned int qlen = qdisc_dev(qdisc)->tx_queue_len; in pfifo_fast_init()
1002 dev_put(qdisc_dev(qdisc)); in qdisc_destroy()
Dsch_cake.c2300 u32 mtu = psched_mtu(qdisc_dev(sch)); in cake_config_besteffort()
2319 u32 mtu = psched_mtu(qdisc_dev(sch)); in cake_config_precedence()
2408 u32 mtu = psched_mtu(qdisc_dev(sch)); in cake_config_diffserv8()
2452 u32 mtu = psched_mtu(qdisc_dev(sch)); in cake_config_diffserv4()
2489 u32 mtu = psched_mtu(qdisc_dev(sch)); in cake_config_diffserv3()
2565 max(sch->limit * psched_mtu(qdisc_dev(sch)), in cake_reconfigure()
Dsch_cbq.c902 cl->quantum > 32*qdisc_dev(cl->qdisc)->mtu) { in cbq_normalize_quanta()
905 cl->quantum = qdisc_dev(cl->qdisc)->mtu/2 + 1; in cbq_normalize_quanta()
1204 q->link.allot = psched_mtu(qdisc_dev(sch)); in cbq_init()
Dsch_pie.c38 u32 mtu = psched_mtu(qdisc_dev(sch)); in pie_drop_early()
Dsch_drr.c82 quantum = psched_mtu(qdisc_dev(sch)); in drr_change_class()
/kernel/linux/linux-5.10/include/trace/events/
Dqdisc.h56 __string( dev, qdisc_dev(q) )
63 __assign_str(dev, qdisc_dev(q));
81 __string( dev, qdisc_dev(q) )
88 __assign_str(dev, qdisc_dev(q));

12