Home
last modified time | relevance | path

Searched refs:rxe (Results 1 – 25 of 27) sorted by relevance

12

/drivers/infiniband/sw/rxe/
Drxe.c23 struct rxe_dev *rxe = container_of(ib_dev, struct rxe_dev, ib_dev); in rxe_dealloc() local
25 rxe_pool_cleanup(&rxe->uc_pool); in rxe_dealloc()
26 rxe_pool_cleanup(&rxe->pd_pool); in rxe_dealloc()
27 rxe_pool_cleanup(&rxe->ah_pool); in rxe_dealloc()
28 rxe_pool_cleanup(&rxe->srq_pool); in rxe_dealloc()
29 rxe_pool_cleanup(&rxe->qp_pool); in rxe_dealloc()
30 rxe_pool_cleanup(&rxe->cq_pool); in rxe_dealloc()
31 rxe_pool_cleanup(&rxe->mr_pool); in rxe_dealloc()
32 rxe_pool_cleanup(&rxe->mw_pool); in rxe_dealloc()
33 rxe_pool_cleanup(&rxe->mc_grp_pool); in rxe_dealloc()
[all …]
Drxe_net.c23 int rxe_mcast_add(struct rxe_dev *rxe, union ib_gid *mgid) in rxe_mcast_add() argument
29 err = dev_mc_add(rxe->ndev, ll_addr); in rxe_mcast_add()
34 int rxe_mcast_delete(struct rxe_dev *rxe, union ib_gid *mgid) in rxe_mcast_delete() argument
40 err = dev_mc_del(rxe->ndev, ll_addr); in rxe_mcast_delete()
158 struct rxe_dev *rxe = rxe_get_dev_from_net(ndev); in rxe_udp_encap_recv() local
161 if (!rxe && is_vlan_dev(rdev)) { in rxe_udp_encap_recv()
163 rxe = rxe_get_dev_from_net(rdev); in rxe_udp_encap_recv()
165 if (!rxe) in rxe_udp_encap_recv()
170 ib_device_put(&rxe->ib_dev); in rxe_udp_encap_recv()
175 pkt->rxe = rxe; in rxe_udp_encap_recv()
[all …]
Drxe_mmap.c21 struct rxe_dev *rxe = to_rdev(ip->context->device); in rxe_mmap_release() local
23 spin_lock_bh(&rxe->pending_lock); in rxe_mmap_release()
28 spin_unlock_bh(&rxe->pending_lock); in rxe_mmap_release()
65 struct rxe_dev *rxe = to_rdev(context->device); in rxe_mmap() local
76 spin_lock_bh(&rxe->pending_lock); in rxe_mmap()
77 list_for_each_entry_safe(ip, pp, &rxe->pending_mmaps, pending_mmaps) { in rxe_mmap()
84 spin_unlock_bh(&rxe->pending_lock); in rxe_mmap()
92 spin_unlock_bh(&rxe->pending_lock); in rxe_mmap()
98 spin_unlock_bh(&rxe->pending_lock); in rxe_mmap()
116 struct rxe_mmap_info *rxe_create_mmap_info(struct rxe_dev *rxe, u32 size, in rxe_create_mmap_info() argument
[all …]
Drxe_mcast.c10 int rxe_mcast_get_grp(struct rxe_dev *rxe, union ib_gid *mgid, in rxe_mcast_get_grp() argument
16 if (rxe->attr.max_mcast_qp_attach == 0) { in rxe_mcast_get_grp()
21 grp = rxe_pool_get_key(&rxe->mc_grp_pool, mgid); in rxe_mcast_get_grp()
25 grp = rxe_alloc(&rxe->mc_grp_pool); in rxe_mcast_get_grp()
33 grp->rxe = rxe; in rxe_mcast_get_grp()
37 err = rxe_mcast_add(rxe, mgid); in rxe_mcast_get_grp()
51 int rxe_mcast_add_grp_elem(struct rxe_dev *rxe, struct rxe_qp *qp, in rxe_mcast_add_grp_elem() argument
67 if (grp->num_qp >= rxe->attr.max_mcast_qp_attach) { in rxe_mcast_add_grp_elem()
72 elem = rxe_alloc(&rxe->mc_elem_pool); in rxe_mcast_add_grp_elem()
95 int rxe_mcast_drop_grp_elem(struct rxe_dev *rxe, struct rxe_qp *qp, in rxe_mcast_drop_grp_elem() argument
[all …]
Drxe_verbs.c19 struct rxe_dev *rxe = to_rdev(dev); in rxe_query_device() local
24 *attr = rxe->attr; in rxe_query_device()
31 struct rxe_dev *rxe = to_rdev(dev); in rxe_query_port() local
35 port = &rxe->port; in rxe_query_port()
40 mutex_lock(&rxe->usdev_lock); in rxe_query_port()
46 else if (dev_get_flags(rxe->ndev) & IFF_UP) in rxe_query_port()
51 mutex_unlock(&rxe->usdev_lock); in rxe_query_port()
69 struct rxe_dev *rxe = to_rdev(dev); in rxe_modify_device() local
76 rxe->attr.sys_image_guid = cpu_to_be64(attr->sys_image_guid); in rxe_modify_device()
79 memcpy(rxe->ib_dev.node_desc, in rxe_modify_device()
[all …]
Drxe_loc.h13 int rxe_av_chk_attr(struct rxe_dev *rxe, struct rdma_ah_attr *attr);
25 int rxe_cq_chk_attr(struct rxe_dev *rxe, struct rxe_cq *cq,
28 int rxe_cq_from_init(struct rxe_dev *rxe, struct rxe_cq *cq, int cqe,
43 int rxe_mcast_get_grp(struct rxe_dev *rxe, union ib_gid *mgid,
46 int rxe_mcast_add_grp_elem(struct rxe_dev *rxe, struct rxe_qp *qp,
49 int rxe_mcast_drop_grp_elem(struct rxe_dev *rxe, struct rxe_qp *qp,
115 struct sk_buff *rxe_init_packet(struct rxe_dev *rxe, struct rxe_av *av,
118 const char *rxe_parent_name(struct rxe_dev *rxe, unsigned int port_num);
119 struct device *rxe_dma_device(struct rxe_dev *rxe);
120 int rxe_mcast_add(struct rxe_dev *rxe, union ib_gid *mgid);
[all …]
Drxe_recv.c13 static int check_type_state(struct rxe_dev *rxe, struct rxe_pkt_info *pkt, in check_type_state() argument
79 static int check_keys(struct rxe_dev *rxe, struct rxe_pkt_info *pkt, in check_keys() argument
82 struct rxe_port *port = &rxe->port; in check_keys()
111 static int check_addr(struct rxe_dev *rxe, struct rxe_pkt_info *pkt, in check_addr() argument
173 struct rxe_dev *rxe = pkt->rxe; in hdr_check() local
174 struct rxe_port *port = &rxe->port; in hdr_check()
193 qp = rxe_pool_get_index(&rxe->qp_pool, index); in hdr_check()
199 err = check_type_state(rxe, pkt, qp); in hdr_check()
203 err = check_addr(rxe, pkt, qp); in hdr_check()
207 err = check_keys(rxe, pkt, qpn, qp); in hdr_check()
[all …]
Drxe.h45 static inline u32 rxe_crc32(struct rxe_dev *rxe, in rxe_crc32() argument
51 SHASH_DESC_ON_STACK(shash, rxe->tfm); in rxe_crc32()
53 shash->tfm = rxe->tfm; in rxe_crc32()
66 void rxe_set_mtu(struct rxe_dev *rxe, unsigned int dev_mtu);
68 int rxe_add(struct rxe_dev *rxe, unsigned int mtu, const char *ibdev_name);
83 void rxe_port_up(struct rxe_dev *rxe);
84 void rxe_port_down(struct rxe_dev *rxe);
85 void rxe_set_port_state(struct rxe_dev *rxe);
Drxe_srq.c12 int rxe_srq_chk_attr(struct rxe_dev *rxe, struct rxe_srq *srq, in rxe_srq_chk_attr() argument
21 if (attr->max_wr > rxe->attr.max_srq_wr) { in rxe_srq_chk_attr()
23 attr->max_wr, rxe->attr.max_srq_wr); in rxe_srq_chk_attr()
43 if (attr->srq_limit > rxe->attr.max_srq_wr) { in rxe_srq_chk_attr()
45 attr->srq_limit, rxe->attr.max_srq_wr); in rxe_srq_chk_attr()
58 if (attr->max_sge > rxe->attr.max_srq_sge) { in rxe_srq_chk_attr()
60 attr->max_sge, rxe->attr.max_srq_sge); in rxe_srq_chk_attr()
74 int rxe_srq_from_init(struct rxe_dev *rxe, struct rxe_srq *srq, in rxe_srq_from_init() argument
94 q = rxe_queue_init(rxe, &srq->rq.max_wr, in rxe_srq_from_init()
103 err = do_mmap_info(rxe, uresp ? &uresp->mi : NULL, udata, q->buf, in rxe_srq_from_init()
[all …]
Drxe_qp.c18 static int rxe_qp_chk_cap(struct rxe_dev *rxe, struct ib_qp_cap *cap, in rxe_qp_chk_cap() argument
21 if (cap->max_send_wr > rxe->attr.max_qp_wr) { in rxe_qp_chk_cap()
23 cap->max_send_wr, rxe->attr.max_qp_wr); in rxe_qp_chk_cap()
27 if (cap->max_send_sge > rxe->attr.max_send_sge) { in rxe_qp_chk_cap()
29 cap->max_send_sge, rxe->attr.max_send_sge); in rxe_qp_chk_cap()
34 if (cap->max_recv_wr > rxe->attr.max_qp_wr) { in rxe_qp_chk_cap()
36 cap->max_recv_wr, rxe->attr.max_qp_wr); in rxe_qp_chk_cap()
40 if (cap->max_recv_sge > rxe->attr.max_recv_sge) { in rxe_qp_chk_cap()
42 cap->max_recv_sge, rxe->attr.max_recv_sge); in rxe_qp_chk_cap()
47 if (cap->max_inline_data > rxe->max_inline_data) { in rxe_qp_chk_cap()
[all …]
Drxe_queue.c12 int do_mmap_info(struct rxe_dev *rxe, struct mminfo __user *outbuf, in do_mmap_info() argument
20 ip = rxe_create_mmap_info(rxe, buf_size, udata, buf); in do_mmap_info()
31 spin_lock_bh(&rxe->pending_lock); in do_mmap_info()
32 list_add(&ip->pending_mmaps, &rxe->pending_mmaps); in do_mmap_info()
33 spin_unlock_bh(&rxe->pending_lock); in do_mmap_info()
55 struct rxe_queue *rxe_queue_init(struct rxe_dev *rxe, in rxe_queue_init() argument
71 q->rxe = rxe; in rxe_queue_init()
139 new_q = rxe_queue_init(q->rxe, &num_elem, elem_size); in rxe_queue_resize()
143 err = do_mmap_info(new_q->rxe, outbuf, udata, new_q->buf, in rxe_queue_resize()
Drxe_cq.c11 int rxe_cq_chk_attr(struct rxe_dev *rxe, struct rxe_cq *cq, in rxe_cq_chk_attr() argument
21 if (cqe > rxe->attr.max_cqe) { in rxe_cq_chk_attr()
23 cqe, rxe->attr.max_cqe); in rxe_cq_chk_attr()
57 int rxe_cq_from_init(struct rxe_dev *rxe, struct rxe_cq *cq, int cqe, in rxe_cq_from_init() argument
63 cq->queue = rxe_queue_init(rxe, &cqe, in rxe_cq_from_init()
70 err = do_mmap_info(rxe, uresp ? &uresp->mi : NULL, udata, in rxe_cq_from_init()
Drxe_comp.c130 rxe_counter_inc(SKB_TO_PKT(skb)->rxe, RXE_CNT_COMPLETER_SCHED); in rxe_comp_queue_pkt()
215 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); in check_ack() local
290 rxe_counter_inc(rxe, RXE_CNT_RCV_RNR); in check_ack()
300 rxe_counter_inc(rxe, in check_ack()
415 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); in do_complete() local
431 rxe_counter_inc(rxe, RXE_CNT_RDMA_SEND); in do_complete()
533 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); in rxe_completer() local
696 rxe_counter_inc(rxe, in rxe_completer()
712 rxe_counter_inc(rxe, RXE_CNT_RETRY_EXCEEDED); in rxe_completer()
734 rxe_counter_inc(rxe, in rxe_completer()
Drxe_pool.c115 struct rxe_dev *rxe, in rxe_pool_init() argument
125 pool->rxe = rxe; in rxe_pool_init()
320 if (!ib_device_try_get(&pool->rxe->ib_dev)) in rxe_alloc()
339 ib_device_put(&pool->rxe->ib_dev); in rxe_alloc()
359 if (!ib_device_try_get(&pool->rxe->ib_dev)) in rxe_add_to_pool()
372 ib_device_put(&pool->rxe->ib_dev); in rxe_add_to_pool()
390 ib_device_put(&pool->rxe->ib_dev); in rxe_elem_release()
Drxe_queue.h43 struct rxe_dev *rxe; member
52 int do_mmap_info(struct rxe_dev *rxe, struct mminfo __user *outbuf,
58 struct rxe_queue *rxe_queue_init(struct rxe_dev *rxe,
Drxe_req.c343 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); in get_mtu() local
348 return rxe->port.mtu_cap; in get_mtu()
356 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); in init_req_packet() local
383 skb = rxe_init_packet(rxe, av, paylen, pkt); in init_req_packet()
447 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); in fill_packet() local
460 crc = rxe_crc32(rxe, crc, tmp, paylen); in fill_packet()
477 crc = rxe_crc32(rxe, crc, pad, bth_pad(pkt)); in fill_packet()
599 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); in rxe_requester() local
602 rmr = rxe_pool_get_index(&rxe->mr_pool, in rxe_requester()
Drxe_resp.c121 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); in check_psn() local
130 rxe_counter_inc(rxe, RXE_CNT_OUT_OF_SEQ_REQ); in check_psn()
134 rxe_counter_inc(rxe, RXE_CNT_DUP_REQ); in check_psn()
567 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); in prepare_ack_packet() local
581 skb = rxe_init_packet(rxe, &qp->pri_av, paylen, ack); in prepare_ack_packet()
709 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); in read_reply() local
713 icrc = rxe_crc32(rxe, icrc, pad, bth_pad(&ack_pkt)); in read_reply()
817 struct rxe_dev *rxe = to_rdev(qp->ibqp.device); in do_complete() local
835 rxe_counter_inc(rxe, RXE_CNT_RDMA_RECV); in do_complete()
891 rmr = rxe_pool_get_index(&rxe->mr_pool, in do_complete()
[all …]
Drxe_icrc.c63 crc = rxe_crc32(pkt->rxe, crc, pshdr, length); in rxe_icrc_hdr()
66 crc = rxe_crc32(pkt->rxe, crc, pkt->hdr + RXE_BTH_BYTES, in rxe_icrc_hdr()
Drxe_verbs.h325 struct rxe_dev *rxe; member
386 static inline void rxe_counter_inc(struct rxe_dev *rxe, enum rxe_counters index) in rxe_counter_inc() argument
388 atomic64_inc(&rxe->stats_counters[index]); in rxe_counter_inc()
451 int rxe_register_device(struct rxe_dev *rxe, const char *ibdev_name);
Drxe_pool.h65 struct rxe_dev *rxe; member
92 int rxe_pool_init(struct rxe_dev *rxe, struct rxe_pool *pool,
Drxe_av.c17 int rxe_av_chk_attr(struct rxe_dev *rxe, struct rdma_ah_attr *attr) in rxe_av_chk_attr() argument
23 port = &rxe->port; in rxe_av_chk_attr()
DMakefile5 rxe.o \
DKconfig28 https://github.com/linux-rdma/rdma-core/blob/master/Documentation/rxe.md
Drxe_mr.c539 struct rxe_dev *rxe = to_rdev(pd->ibpd.device); in lookup_mem() local
542 mem = rxe_pool_get_index(&rxe->mr_pool, index); in lookup_mem()
/drivers/infiniband/sw/
DMakefile3 obj-$(CONFIG_RDMA_RXE) += rxe/

12