Searched refs:io_wq (Results 1 – 5 of 5) sorted by relevance
/io_uring/ |
D | io-wq.h | 7 struct io_wq; 46 struct io_wq *io_wq_create(unsigned bounded, struct io_wq_data *data); 47 void io_wq_exit_start(struct io_wq *wq); 48 void io_wq_put_and_exit(struct io_wq *wq); 50 void io_wq_enqueue(struct io_wq *wq, struct io_wq_work *work); 54 int io_wq_max_workers(struct io_wq *wq, int *new_count); 64 enum io_wq_cancel io_wq_cancel_cb(struct io_wq *wq, work_cancel_fn *cancel,
|
D | io-wq.c | 106 struct io_wq *wq; 115 struct io_wq { struct 143 static bool create_io_worker(struct io_wq *wq, struct io_wqe *wqe, int index); argument 149 static void io_wq_cancel_tw_create(struct io_wq *wq); 178 static void io_worker_ref_put(struct io_wq *wq) in io_worker_ref_put() 198 struct io_wq *wq = wqe->wq; in io_worker_cancel_cb() 222 struct io_wq *wq = wqe->wq; in io_worker_exit() 333 struct io_wq *wq; in create_worker_cb() 363 struct io_wq *wq = wqe->wq; in io_queue_worker_create() 460 struct io_wq *wq = wqe->wq; in io_wait_on_hash() [all …]
|
D | tctx.c | 15 static struct io_wq *io_init_wq_offload(struct io_ring_ctx *ctx, in io_init_wq_offload() 52 WARN_ON_ONCE(tctx->io_wq); in __io_uring_free() 76 tctx->io_wq = io_init_wq_offload(ctx, task); in io_uring_alloc_task_context() 77 if (IS_ERR(tctx->io_wq)) { in io_uring_alloc_task_context() 78 ret = PTR_ERR(tctx->io_wq); in io_uring_alloc_task_context() 110 ret = io_wq_max_workers(tctx->io_wq, limits); in __io_uring_add_tctx_node() 180 struct io_wq *wq = tctx->io_wq; in io_uring_clean_tctx() 194 tctx->io_wq = NULL; in io_uring_clean_tctx()
|
D | cancel.c | 61 if (!tctx || !tctx->io_wq) in io_async_cancel_one() 65 cancel_ret = io_wq_cancel_cb(tctx->io_wq, io_cancel_cb, cd, all); in io_async_cancel_one()
|
D | io_uring.c | 457 BUG_ON(!tctx->io_wq); in io_queue_iowq() 473 io_wq_enqueue(tctx->io_wq, &req->work); in io_queue_iowq() 2777 if (tsk && tsk->io_uring && tsk->io_uring->io_wq) in io_ring_exit_work() 2778 io_wq_cancel_cb(tsk->io_uring->io_wq, in io_ring_exit_work() 2929 if (!tctx || !tctx->io_wq) in io_uring_try_cancel_iowq() 2931 cret = io_wq_cancel_cb(tctx->io_wq, io_cancel_ctx_cb, ctx, true); in io_uring_try_cancel_iowq() 2954 } else if (tctx && tctx->io_wq) { in io_uring_try_cancel_requests() 2959 cret = io_wq_cancel_cb(tctx->io_wq, io_cancel_task_cb, in io_uring_try_cancel_requests() 3008 if (tctx->io_wq) in io_uring_cancel_generic() 3009 io_wq_exit_start(tctx->io_wq); in io_uring_cancel_generic() [all …]
|