• Home
  • Line#
  • Scopes#
  • Navigate#
  • Raw
  • Download
1 // SPDX-License-Identifier: GPL-2.0-only
2 #include <linux/kernel.h>
3 #include <linux/module.h>
4 #include <linux/init.h>
5 #include <linux/netlink.h>
6 #include <linux/netfilter.h>
7 #include <linux/workqueue.h>
8 #include <linux/spinlock.h>
9 #include <linux/netfilter/nf_conntrack_common.h>
10 #include <linux/netfilter/nf_tables.h>
11 #include <net/ip.h> /* for ipv4 options. */
12 #include <net/netfilter/nf_tables.h>
13 #include <net/netfilter/nf_tables_core.h>
14 #include <net/netfilter/nf_conntrack_core.h>
15 #include <net/netfilter/nf_conntrack_extend.h>
16 #include <net/netfilter/nf_flow_table.h>
17 
18 struct nft_flow_offload {
19 	struct nft_flowtable	*flowtable;
20 };
21 
nft_flow_route(const struct nft_pktinfo * pkt,const struct nf_conn * ct,struct nf_flow_route * route,enum ip_conntrack_dir dir)22 static int nft_flow_route(const struct nft_pktinfo *pkt,
23 			  const struct nf_conn *ct,
24 			  struct nf_flow_route *route,
25 			  enum ip_conntrack_dir dir)
26 {
27 	struct dst_entry *this_dst = skb_dst(pkt->skb);
28 	struct dst_entry *other_dst = NULL;
29 	struct flowi fl;
30 
31 	memset(&fl, 0, sizeof(fl));
32 	switch (nft_pf(pkt)) {
33 	case NFPROTO_IPV4:
34 		fl.u.ip4.daddr = ct->tuplehash[dir].tuple.src.u3.ip;
35 		fl.u.ip4.flowi4_oif = nft_in(pkt)->ifindex;
36 		break;
37 	case NFPROTO_IPV6:
38 		fl.u.ip6.daddr = ct->tuplehash[dir].tuple.src.u3.in6;
39 		fl.u.ip6.flowi6_oif = nft_in(pkt)->ifindex;
40 		break;
41 	}
42 
43 	nf_route(nft_net(pkt), &other_dst, &fl, false, nft_pf(pkt));
44 	if (!other_dst)
45 		return -ENOENT;
46 
47 	route->tuple[dir].dst		= this_dst;
48 	route->tuple[!dir].dst		= other_dst;
49 
50 	return 0;
51 }
52 
nft_flow_offload_skip(struct sk_buff * skb,int family)53 static bool nft_flow_offload_skip(struct sk_buff *skb, int family)
54 {
55 	if (skb_sec_path(skb))
56 		return true;
57 
58 	if (family == NFPROTO_IPV4) {
59 		const struct ip_options *opt;
60 
61 		opt = &(IPCB(skb)->opt);
62 
63 		if (unlikely(opt->optlen))
64 			return true;
65 	}
66 
67 	return false;
68 }
69 
nft_flow_offload_eval(const struct nft_expr * expr,struct nft_regs * regs,const struct nft_pktinfo * pkt)70 static void nft_flow_offload_eval(const struct nft_expr *expr,
71 				  struct nft_regs *regs,
72 				  const struct nft_pktinfo *pkt)
73 {
74 	struct nft_flow_offload *priv = nft_expr_priv(expr);
75 	struct nf_flowtable *flowtable = &priv->flowtable->data;
76 	struct tcphdr _tcph, *tcph = NULL;
77 	enum ip_conntrack_info ctinfo;
78 	struct nf_flow_route route;
79 	struct flow_offload *flow;
80 	enum ip_conntrack_dir dir;
81 	struct nf_conn *ct;
82 	int ret;
83 
84 	if (nft_flow_offload_skip(pkt->skb, nft_pf(pkt)))
85 		goto out;
86 
87 	ct = nf_ct_get(pkt->skb, &ctinfo);
88 	if (!ct)
89 		goto out;
90 
91 	switch (ct->tuplehash[IP_CT_DIR_ORIGINAL].tuple.dst.protonum) {
92 	case IPPROTO_TCP:
93 		tcph = skb_header_pointer(pkt->skb, nft_thoff(pkt),
94 					  sizeof(_tcph), &_tcph);
95 		if (unlikely(!tcph || tcph->fin || tcph->rst))
96 			goto out;
97 		break;
98 	case IPPROTO_UDP:
99 		break;
100 	default:
101 		goto out;
102 	}
103 
104 	if (nf_ct_ext_exist(ct, NF_CT_EXT_HELPER) ||
105 	    ct->status & (IPS_SEQ_ADJUST | IPS_NAT_CLASH))
106 		goto out;
107 
108 	if (!nf_ct_is_confirmed(ct))
109 		goto out;
110 
111 	if (test_and_set_bit(IPS_OFFLOAD_BIT, &ct->status))
112 		goto out;
113 
114 	dir = CTINFO2DIR(ctinfo);
115 	if (nft_flow_route(pkt, ct, &route, dir) < 0)
116 		goto err_flow_route;
117 
118 	flow = flow_offload_alloc(ct);
119 	if (!flow)
120 		goto err_flow_alloc;
121 
122 	if (flow_offload_route_init(flow, &route) < 0)
123 		goto err_flow_add;
124 
125 	if (tcph) {
126 		ct->proto.tcp.seen[0].flags |= IP_CT_TCP_FLAG_BE_LIBERAL;
127 		ct->proto.tcp.seen[1].flags |= IP_CT_TCP_FLAG_BE_LIBERAL;
128 	}
129 
130 	ret = flow_offload_add(flowtable, flow);
131 	if (ret < 0)
132 		goto err_flow_add;
133 
134 	dst_release(route.tuple[!dir].dst);
135 	return;
136 
137 err_flow_add:
138 	flow_offload_free(flow);
139 err_flow_alloc:
140 	dst_release(route.tuple[!dir].dst);
141 err_flow_route:
142 	clear_bit(IPS_OFFLOAD_BIT, &ct->status);
143 out:
144 	regs->verdict.code = NFT_BREAK;
145 }
146 
nft_flow_offload_validate(const struct nft_ctx * ctx,const struct nft_expr * expr,const struct nft_data ** data)147 static int nft_flow_offload_validate(const struct nft_ctx *ctx,
148 				     const struct nft_expr *expr,
149 				     const struct nft_data **data)
150 {
151 	unsigned int hook_mask = (1 << NF_INET_FORWARD);
152 
153 	if (ctx->family != NFPROTO_IPV4 &&
154 	    ctx->family != NFPROTO_IPV6 &&
155 	    ctx->family != NFPROTO_INET)
156 		return -EOPNOTSUPP;
157 
158 	return nft_chain_validate_hooks(ctx->chain, hook_mask);
159 }
160 
161 static const struct nla_policy nft_flow_offload_policy[NFTA_FLOW_MAX + 1] = {
162 	[NFTA_FLOW_TABLE_NAME]	= { .type = NLA_STRING,
163 				    .len = NFT_NAME_MAXLEN - 1 },
164 };
165 
nft_flow_offload_init(const struct nft_ctx * ctx,const struct nft_expr * expr,const struct nlattr * const tb[])166 static int nft_flow_offload_init(const struct nft_ctx *ctx,
167 				 const struct nft_expr *expr,
168 				 const struct nlattr * const tb[])
169 {
170 	struct nft_flow_offload *priv = nft_expr_priv(expr);
171 	u8 genmask = nft_genmask_next(ctx->net);
172 	struct nft_flowtable *flowtable;
173 
174 	if (!tb[NFTA_FLOW_TABLE_NAME])
175 		return -EINVAL;
176 
177 	flowtable = nft_flowtable_lookup(ctx->table, tb[NFTA_FLOW_TABLE_NAME],
178 					 genmask);
179 	if (IS_ERR(flowtable))
180 		return PTR_ERR(flowtable);
181 
182 	if (!nft_use_inc(&flowtable->use))
183 		return -EMFILE;
184 
185 	priv->flowtable = flowtable;
186 
187 	return nf_ct_netns_get(ctx->net, ctx->family);
188 }
189 
nft_flow_offload_deactivate(const struct nft_ctx * ctx,const struct nft_expr * expr,enum nft_trans_phase phase)190 static void nft_flow_offload_deactivate(const struct nft_ctx *ctx,
191 					const struct nft_expr *expr,
192 					enum nft_trans_phase phase)
193 {
194 	struct nft_flow_offload *priv = nft_expr_priv(expr);
195 
196 	nf_tables_deactivate_flowtable(ctx, priv->flowtable, phase);
197 }
198 
nft_flow_offload_activate(const struct nft_ctx * ctx,const struct nft_expr * expr)199 static void nft_flow_offload_activate(const struct nft_ctx *ctx,
200 				      const struct nft_expr *expr)
201 {
202 	struct nft_flow_offload *priv = nft_expr_priv(expr);
203 
204 	nft_use_inc_restore(&priv->flowtable->use);
205 }
206 
nft_flow_offload_destroy(const struct nft_ctx * ctx,const struct nft_expr * expr)207 static void nft_flow_offload_destroy(const struct nft_ctx *ctx,
208 				     const struct nft_expr *expr)
209 {
210 	nf_ct_netns_put(ctx->net, ctx->family);
211 }
212 
nft_flow_offload_dump(struct sk_buff * skb,const struct nft_expr * expr)213 static int nft_flow_offload_dump(struct sk_buff *skb, const struct nft_expr *expr)
214 {
215 	struct nft_flow_offload *priv = nft_expr_priv(expr);
216 
217 	if (nla_put_string(skb, NFTA_FLOW_TABLE_NAME, priv->flowtable->name))
218 		goto nla_put_failure;
219 
220 	return 0;
221 
222 nla_put_failure:
223 	return -1;
224 }
225 
226 static struct nft_expr_type nft_flow_offload_type;
227 static const struct nft_expr_ops nft_flow_offload_ops = {
228 	.type		= &nft_flow_offload_type,
229 	.size		= NFT_EXPR_SIZE(sizeof(struct nft_flow_offload)),
230 	.eval		= nft_flow_offload_eval,
231 	.init		= nft_flow_offload_init,
232 	.activate	= nft_flow_offload_activate,
233 	.deactivate	= nft_flow_offload_deactivate,
234 	.destroy	= nft_flow_offload_destroy,
235 	.validate	= nft_flow_offload_validate,
236 	.dump		= nft_flow_offload_dump,
237 };
238 
239 static struct nft_expr_type nft_flow_offload_type __read_mostly = {
240 	.name		= "flow_offload",
241 	.ops		= &nft_flow_offload_ops,
242 	.policy		= nft_flow_offload_policy,
243 	.maxattr	= NFTA_FLOW_MAX,
244 	.owner		= THIS_MODULE,
245 };
246 
flow_offload_netdev_event(struct notifier_block * this,unsigned long event,void * ptr)247 static int flow_offload_netdev_event(struct notifier_block *this,
248 				     unsigned long event, void *ptr)
249 {
250 	struct net_device *dev = netdev_notifier_info_to_dev(ptr);
251 
252 	if (event != NETDEV_DOWN)
253 		return NOTIFY_DONE;
254 
255 	nf_flow_table_cleanup(dev);
256 
257 	return NOTIFY_DONE;
258 }
259 
260 static struct notifier_block flow_offload_netdev_notifier = {
261 	.notifier_call	= flow_offload_netdev_event,
262 };
263 
nft_flow_offload_module_init(void)264 static int __init nft_flow_offload_module_init(void)
265 {
266 	int err;
267 
268 	err = register_netdevice_notifier(&flow_offload_netdev_notifier);
269 	if (err)
270 		goto err;
271 
272 	err = nft_register_expr(&nft_flow_offload_type);
273 	if (err < 0)
274 		goto register_expr;
275 
276 	return 0;
277 
278 register_expr:
279 	unregister_netdevice_notifier(&flow_offload_netdev_notifier);
280 err:
281 	return err;
282 }
283 
nft_flow_offload_module_exit(void)284 static void __exit nft_flow_offload_module_exit(void)
285 {
286 	nft_unregister_expr(&nft_flow_offload_type);
287 	unregister_netdevice_notifier(&flow_offload_netdev_notifier);
288 }
289 
290 module_init(nft_flow_offload_module_init);
291 module_exit(nft_flow_offload_module_exit);
292 
293 MODULE_LICENSE("GPL");
294 MODULE_AUTHOR("Pablo Neira Ayuso <pablo@netfilter.org>");
295 MODULE_ALIAS_NFT_EXPR("flow_offload");
296 MODULE_DESCRIPTION("nftables hardware flow offload module");
297