Searched refs:io_wq (Results 1 – 3 of 3) sorted by relevance
/io_uring/ |
D | io-wq.c | 101 struct io_wq *wq; 110 struct io_wq { struct 138 static bool create_io_worker(struct io_wq *wq, struct io_wqe *wqe, int index); argument 144 static void io_wq_cancel_tw_create(struct io_wq *wq); 173 static void io_worker_ref_put(struct io_wq *wq) in io_worker_ref_put() 193 struct io_wq *wq = wqe->wq; in io_worker_cancel_cb() 217 struct io_wq *wq = wqe->wq; in io_worker_exit() 324 struct io_wq *wq; in create_worker_cb() 354 struct io_wq *wq = wqe->wq; in io_queue_worker_create() 451 struct io_wq *wq = wqe->wq; in io_wait_on_hash() [all …]
|
D | io-wq.h | 6 struct io_wq; 123 struct io_wq *io_wq_create(unsigned bounded, struct io_wq_data *data); 124 void io_wq_exit_start(struct io_wq *wq); 125 void io_wq_put_and_exit(struct io_wq *wq); 127 void io_wq_enqueue(struct io_wq *wq, struct io_wq_work *work); 130 int io_wq_cpu_affinity(struct io_wq *wq, cpumask_var_t mask); 131 int io_wq_max_workers(struct io_wq *wq, int *new_count); 141 enum io_wq_cancel io_wq_cancel_cb(struct io_wq *wq, work_cancel_fn *cancel,
|
D | io_uring.c | 470 struct io_wq *io_wq; member 1486 BUG_ON(!tctx->io_wq); in io_queue_async_work() 1503 io_wq_enqueue(tctx->io_wq, &req->work); in io_queue_async_work() 6511 if (!tctx || !tctx->io_wq) in io_async_cancel_one() 6514 cancel_ret = io_wq_cancel_cb(tctx->io_wq, io_cancel_cb, &data, false); in io_async_cancel_one() 8811 static struct io_wq *io_init_wq_offload(struct io_ring_ctx *ctx, in io_init_wq_offload() 8859 tctx->io_wq = io_init_wq_offload(ctx, task); in io_uring_alloc_task_context() 8860 if (IS_ERR(tctx->io_wq)) { in io_uring_alloc_task_context() 8861 ret = PTR_ERR(tctx->io_wq); in io_uring_alloc_task_context() 8883 WARN_ON_ONCE(tctx->io_wq); in __io_uring_free() [all …]
|