/external/tensorflow/tensorflow/lite/ |
D | interpreter_test.cc | 33 Interpreter* interpreter, std::unique_ptr<Delegate> delegate) { in ModifyGraphWithDelegate() argument 38 return interpreter->ModifyGraphWithDelegate(std::move(tflite_delegate)); in ModifyGraphWithDelegate() 61 Interpreter interpreter; in TEST() local 65 interpreter.SetInputs({}); in TEST() 66 interpreter.SetOutputs({}); in TEST() 67 ASSERT_EQ(interpreter.AllocateTensors(), kTfLiteOk); in TEST() 68 ASSERT_EQ(interpreter.Invoke(), kTfLiteOk); in TEST() 78 Interpreter interpreter; in TEST() local 79 ASSERT_NE(interpreter.Invoke(), kTfLiteOk); in TEST() 80 ASSERT_EQ(interpreter.AllocateTensors(), kTfLiteOk); in TEST() [all …]
|
D | model_test.cc | 81 std::unique_ptr<Interpreter> interpreter; in TEST() local 82 ASSERT_EQ(InterpreterBuilder(*model, TrivialResolver())(&interpreter), in TEST() 84 ASSERT_NE(interpreter, nullptr); in TEST() 94 std::unique_ptr<Interpreter> interpreter; in TEST() local 95 ASSERT_NE(InterpreterBuilder(*m, TrivialResolver())(&interpreter), kTfLiteOk); in TEST() 102 std::unique_ptr<Interpreter> interpreter; in TEST() local 103 ASSERT_EQ(InterpreterBuilder(*m, TrivialResolver())(&interpreter), kTfLiteOk); in TEST() 104 EXPECT_EQ(interpreter->subgraphs_size(), 2); in TEST() 113 std::unique_ptr<Interpreter> interpreter(new Interpreter); in TEST() local 114 ASSERT_NE(InterpreterBuilder(*model, TrivialResolver(nullptr))(&interpreter), in TEST() [all …]
|
D | string_util_test.cc | 25 Interpreter interpreter; in TEST() local 26 interpreter.AddTensors(3); in TEST() 28 TfLiteTensor* t0 = interpreter.tensor(0); in TEST() 32 TfLiteTensor* t1 = interpreter.tensor(1); in TEST() 41 interpreter.SetTensorParametersReadOnly(2, kTfLiteString, "", {1}, quant, in TEST() 43 TfLiteTensor* t2 = interpreter.tensor(2); in TEST() 44 interpreter.AllocateTensors(); in TEST() 92 Interpreter interpreter; in TEST() local 93 interpreter.AddTensors(1); in TEST() 94 TfLiteTensor* t0 = interpreter.tensor(0); in TEST() [all …]
|
/external/tensorflow/tensorflow/lite/java/src/test/java/org/tensorflow/lite/ |
D | InterpreterTest.java | 52 Interpreter interpreter = new Interpreter(MODEL_FILE); in testInterpreter() local 53 assertThat(interpreter).isNotNull(); in testInterpreter() 54 assertThat(interpreter.getInputTensorCount()).isEqualTo(1); in testInterpreter() 55 assertThat(interpreter.getInputTensor(0).dataType()).isEqualTo(DataType.FLOAT32); in testInterpreter() 56 assertThat(interpreter.getOutputTensorCount()).isEqualTo(1); in testInterpreter() 57 assertThat(interpreter.getOutputTensor(0).dataType()).isEqualTo(DataType.FLOAT32); in testInterpreter() 58 interpreter.close(); in testInterpreter() 63 Interpreter interpreter = in testInterpreterWithOptions() local 65 assertThat(interpreter).isNotNull(); in testInterpreterWithOptions() 66 assertThat(interpreter.getInputTensorCount()).isEqualTo(1); in testInterpreterWithOptions() [all …]
|
D | InterpreterFlexTest.java | 40 try (Interpreter interpreter = new Interpreter(FLEX_MODEL_FILE)) { in testFlexModel() argument 41 assertThat(interpreter.getInputTensorCount()).isEqualTo(4); in testFlexModel() 42 assertThat(interpreter.getInputTensor(0).dataType()).isEqualTo(DataType.FLOAT32); in testFlexModel() 43 assertThat(interpreter.getInputTensor(1).dataType()).isEqualTo(DataType.FLOAT32); in testFlexModel() 44 assertThat(interpreter.getInputTensor(2).dataType()).isEqualTo(DataType.FLOAT32); in testFlexModel() 45 assertThat(interpreter.getInputTensor(3).dataType()).isEqualTo(DataType.FLOAT32); in testFlexModel() 46 assertThat(interpreter.getOutputTensorCount()).isEqualTo(2); in testFlexModel() 47 assertThat(interpreter.getOutputTensor(0).dataType()).isEqualTo(DataType.FLOAT32); in testFlexModel() 48 assertThat(interpreter.getOutputTensor(1).dataType()).isEqualTo(DataType.FLOAT32); in testFlexModel() 53 interpreter.runForMultipleInputsOutputs(inputs, outputs); in testFlexModel()
|
/external/tensorflow/tensorflow/lite/python/ |
D | interpreter_test.py | 24 from tensorflow.lite.python import interpreter as interpreter_wrapper 33 interpreter = interpreter_wrapper.Interpreter( 36 interpreter.allocate_tensors() 38 input_details = interpreter.get_input_details() 45 output_details = interpreter.get_output_details() 54 interpreter.set_tensor(input_details[0]['index'], test_input) 55 interpreter.invoke() 57 output_data = interpreter.get_tensor(output_details[0]['index']) 66 interpreter = interpreter_wrapper.Interpreter(model_content=data) 67 interpreter.allocate_tensors() [all …]
|
D | lite_test.py | 27 from tensorflow.lite.python.interpreter import Interpreter 100 interpreter = Interpreter(model_content=tflite_model) 101 interpreter.allocate_tensors() 103 input_details = interpreter.get_input_details() 110 output_details = interpreter.get_output_details() 129 interpreter = Interpreter(model_content=tflite_model) 130 interpreter.allocate_tensors() 132 input_details = interpreter.get_input_details() 138 output_details = interpreter.get_output_details() 167 interpreter = Interpreter(model_content=tflite_model) [all …]
|
/external/tensorflow/tensorflow/lite/java/src/main/native/ |
D | nativeinterpreterwrapper_jni.cc | 136 tflite::Interpreter* interpreter = convertLongToInterpreter(env, handle); in Java_org_tensorflow_lite_NativeInterpreterWrapper_getInputNames() local 137 if (interpreter == nullptr) return nullptr; in Java_org_tensorflow_lite_NativeInterpreterWrapper_getInputNames() 145 size_t size = interpreter->inputs().size(); in Java_org_tensorflow_lite_NativeInterpreterWrapper_getInputNames() 150 env->NewStringUTF(interpreter->GetInputName(i))); in Java_org_tensorflow_lite_NativeInterpreterWrapper_getInputNames() 158 tflite::Interpreter* interpreter = convertLongToInterpreter(env, handle); in Java_org_tensorflow_lite_NativeInterpreterWrapper_allocateTensors() local 159 if (interpreter == nullptr) return; in Java_org_tensorflow_lite_NativeInterpreterWrapper_allocateTensors() 164 if (interpreter->AllocateTensors() != kTfLiteOk) { in Java_org_tensorflow_lite_NativeInterpreterWrapper_allocateTensors() 176 tflite::Interpreter* interpreter = convertLongToInterpreter(env, handle); in Java_org_tensorflow_lite_NativeInterpreterWrapper_getInputTensorIndex() local 177 if (interpreter == nullptr) return 0; in Java_org_tensorflow_lite_NativeInterpreterWrapper_getInputTensorIndex() 178 return interpreter->inputs()[input_index]; in Java_org_tensorflow_lite_NativeInterpreterWrapper_getInputTensorIndex() [all …]
|
/external/tensorflow/tensorflow/lite/experimental/swift/Tests/ |
D | InterpreterTests.swift | 20 var interpreter: Interpreter! variable 25 interpreter = try! Interpreter(modelPath: AddModel.path) in setUp() 29 interpreter = nil in tearDown() 51 XCTAssertEqual(interpreter.inputTensorCount, AddModel.inputTensorCount) in testInterpreter_InputTensorCount() 55 XCTAssertEqual(interpreter.outputTensorCount, AddModel.outputTensorCount) in testInterpreter_OutputTensorCount() 59 try interpreter.allocateTensors() in testInterpreter_Invoke() 60 XCTAssertNoThrow(try interpreter.invoke()) in testInterpreter_Invoke() 64 XCTAssertThrowsError(try interpreter.invoke()) { error in in testInterpreter_Invoke_ThrowsAllocateTensorsRequired_ModelNotReady() 71 let inputTensor = try interpreter.input(at: AddModel.validIndex) in testInterpreter_InputTensorAtIndex() 76 interpreter = try Interpreter(modelPath: AddQuantizedModel.path) in testInterpreter_InputTensorAtIndex_QuantizedModel() [all …]
|
/external/tensorflow/tensorflow/lite/experimental/swift/TestApps/TensorFlowLiteApp/TensorFlowLiteApp/ |
D | ViewController.swift | 9 private var interpreter: Interpreter? variable 27 guard let interpreter = interpreter else { return "" } variable 28 let inputCount = interpreter.inputTensorCount 29 let outputCount = interpreter.outputTensorCount 33 let tensor = try interpreter.input(at: index) 43 let tensor = try interpreter.output(at: index) 108 self.interpreter = try Interpreter(modelPath: modelPath, options: options) in setUpInterpreter() 121 guard let interpreter = self.interpreter else { in invokeAdd() variable 126 try interpreter.resizeInput(at: 0, to: [2]) in invokeAdd() 127 try interpreter.allocateTensors() in invokeAdd() [all …]
|
/external/tensorflow/tensorflow/lite/java/src/testhelper/java/org/tensorflow/lite/ |
D | TestHelper.java | 28 public static Long getLastNativeInferenceDurationNanoseconds(Interpreter interpreter) { in getLastNativeInferenceDurationNanoseconds() argument 29 if (interpreter != null && interpreter.wrapper != null) { in getLastNativeInferenceDurationNanoseconds() 30 return interpreter.wrapper.getLastNativeInferenceDurationNanoseconds(); in getLastNativeInferenceDurationNanoseconds() 44 public static int[] getInputDims(Interpreter interpreter, int index) { in getInputDims() argument 45 if (interpreter != null && interpreter.wrapper != null) { in getInputDims() 46 return interpreter.wrapper.getInputTensor(index).shape(); in getInputDims() 63 public static String getInputDataType(Interpreter interpreter, int index) { in getInputDataType() argument 64 if (interpreter != null && interpreter.wrapper != null) { in getInputDataType() 65 return interpreter.wrapper.getInputTensor(index).dataType().toStringName(); in getInputDataType() 82 public static String getOutputDataType(Interpreter interpreter, int index) { in getOutputDataType() argument [all …]
|
/external/tensorflow/tensorflow/lite/examples/label_image/ |
D | label_image.cc | 97 std::unique_ptr<tflite::Interpreter> interpreter; in RunInference() local 109 tflite::InterpreterBuilder(*model, resolver)(&interpreter); in RunInference() 110 if (!interpreter) { in RunInference() 115 interpreter->UseNNAPI(s->accel); in RunInference() 116 interpreter->SetAllowFp16PrecisionForFp32(s->allow_fp16); in RunInference() 119 LOG(INFO) << "tensors size: " << interpreter->tensors_size() << "\n"; in RunInference() 120 LOG(INFO) << "nodes size: " << interpreter->nodes_size() << "\n"; in RunInference() 121 LOG(INFO) << "inputs: " << interpreter->inputs().size() << "\n"; in RunInference() 122 LOG(INFO) << "input(0) name: " << interpreter->GetInputName(0) << "\n"; in RunInference() 124 int t_size = interpreter->tensors_size(); in RunInference() [all …]
|
D | bitmap_helpers_impl.h | 35 std::unique_ptr<Interpreter> interpreter(new Interpreter); in resize() 40 interpreter->AddTensors(2, &base_index); in resize() 42 interpreter->AddTensors(1, &base_index); in resize() 44 interpreter->SetInputs({0, 1}); in resize() 45 interpreter->SetOutputs({2}); in resize() 49 interpreter->SetTensorParametersReadWrite( in resize() 52 interpreter->SetTensorParametersReadWrite(1, kTfLiteInt32, "new_size", {2}, in resize() 54 interpreter->SetTensorParametersReadWrite( in resize() 64 interpreter->AddNodeWithParameters({0, 1}, {2}, nullptr, 0, params, resize_op, in resize() 67 interpreter->AllocateTensors(); in resize() [all …]
|
/external/tensorflow/tensorflow/lite/experimental/examples/unity/TensorFlowLitePlugin/Assets/TensorFlowLite/SDK/Scripts/ |
D | Interpreter.cs | 33 private TFL_Interpreter interpreter; field in TensorFlowLite.Interpreter 40 interpreter = TFL_NewInterpreter(model, /*options=*/IntPtr.Zero); in Interpreter() 41 …if (interpreter == IntPtr.Zero) throw new Exception("Failed to create TensorFlowLite Interpreter"); in Interpreter() 49 if (interpreter != IntPtr.Zero) TFL_DeleteInterpreter(interpreter); in Dispose() 50 interpreter = IntPtr.Zero; in Dispose() 56 ThrowIfError(TFL_InterpreterInvoke(interpreter)); in Invoke() 60 return TFL_InterpreterGetInputTensorCount(interpreter); in GetInputTensorCount() 66 TFL_Tensor tensor = TFL_InterpreterGetInputTensor(interpreter, inputTensorIndex); in SetInputTensorData() 73 interpreter, inputTensorIndex, inputTensorShape, inputTensorShape.Length)); in ResizeInputTensor() 77 ThrowIfError(TFL_InterpreterAllocateTensors(interpreter)); in AllocateTensors() [all …]
|
/external/tensorflow/tensorflow/lite/experimental/c/ |
D | c_api.cc | 112 std::unique_ptr<tflite::Interpreter> interpreter; in TFL_NewInterpreter() local 113 if (builder(&interpreter) != kTfLiteOk) { in TFL_NewInterpreter() 120 interpreter->SetNumThreads(optional_options->num_threads); in TFL_NewInterpreter() 125 std::move(interpreter)}; in TFL_NewInterpreter() 128 void TFL_DeleteInterpreter(TFL_Interpreter* interpreter) { delete interpreter; } in TFL_DeleteInterpreter() argument 130 int32_t TFL_InterpreterGetInputTensorCount(const TFL_Interpreter* interpreter) { in TFL_InterpreterGetInputTensorCount() argument 131 return static_cast<int>(interpreter->impl->inputs().size()); in TFL_InterpreterGetInputTensorCount() 134 TFL_Tensor* TFL_InterpreterGetInputTensor(const TFL_Interpreter* interpreter, in TFL_InterpreterGetInputTensor() argument 136 return interpreter->impl->tensor(interpreter->impl->inputs()[input_index]); in TFL_InterpreterGetInputTensor() 139 TFL_Status TFL_InterpreterResizeInputTensor(TFL_Interpreter* interpreter, in TFL_InterpreterResizeInputTensor() argument [all …]
|
D | c_api_test.cc | 35 TFL_Interpreter* interpreter = TFL_NewInterpreter(model, options); in TEST() local 36 ASSERT_NE(interpreter, nullptr); in TEST() 42 ASSERT_EQ(TFL_InterpreterAllocateTensors(interpreter), kTfLiteOk); in TEST() 43 ASSERT_EQ(TFL_InterpreterGetInputTensorCount(interpreter), 1); in TEST() 44 ASSERT_EQ(TFL_InterpreterGetOutputTensorCount(interpreter), 1); in TEST() 47 ASSERT_EQ(TFL_InterpreterResizeInputTensor(interpreter, 0, input_dims.data(), in TEST() 50 ASSERT_EQ(TFL_InterpreterAllocateTensors(interpreter), kTfLiteOk); in TEST() 52 TFL_Tensor* input_tensor = TFL_InterpreterGetInputTensor(interpreter, 0); in TEST() 71 ASSERT_EQ(TFL_InterpreterInvoke(interpreter), kTfLiteOk); in TEST() 74 TFL_InterpreterGetOutputTensor(interpreter, 0); in TEST() [all …]
|
/external/v8/src/ |
D | DEPS | 17 "-src/interpreter", 18 "+src/interpreter/bytecode-array-accessor.h", 19 "+src/interpreter/bytecode-array-iterator.h", 20 "+src/interpreter/bytecode-array-random-iterator.h", 21 "+src/interpreter/bytecode-decoder.h", 22 "+src/interpreter/bytecode-flags.h", 23 "+src/interpreter/bytecode-register.h", 24 "+src/interpreter/bytecodes.h", 25 "+src/interpreter/interpreter.h", 26 "+src/interpreter/interpreter-generator.h", [all …]
|
/external/v8/src/runtime/ |
D | runtime-interpreter.cc | 32 using interpreter::Bytecode; in RUNTIME_FUNCTION() 33 using interpreter::Bytecodes; in RUNTIME_FUNCTION() 34 using interpreter::OperandScale; in RUNTIME_FUNCTION() 39 return isolate->interpreter()->GetAndMaybeDeserializeBytecodeHandler( in RUNTIME_FUNCTION() 48 interpreter::BytecodeArrayIterator& bytecode_iterator, int offset) { in AdvanceToOffsetForTracing() 57 interpreter::OperandScale::kSingle)); in AdvanceToOffsetForTracing() 61 interpreter::BytecodeArrayIterator& bytecode_iterator, in PrintRegisters() 73 interpreter::Bytecode bytecode = bytecode_iterator.current_bytecode(); in PrintRegisters() 76 if ((is_input && interpreter::Bytecodes::ReadsAccumulator(bytecode)) || in PrintRegisters() 77 (!is_input && interpreter::Bytecodes::WritesAccumulator(bytecode))) { in PrintRegisters() [all …]
|
/external/tensorflow/tensorflow/lite/tools/optimize/calibration/ |
D | calibrator_test.cc | 45 std::unique_ptr<Interpreter> interpreter; in TEST() local 48 *model, ops::builtin::BuiltinOpResolver{}, &interpreter, &reader); in TEST() 51 ASSERT_TRUE(interpreter); in TEST() 58 status = interpreter->AllocateTensors(); in TEST() 77 for (size_t i = 0; i < interpreter->inputs().size(); i++) { in TEST() 78 int input_tensor_idx = interpreter->inputs()[i]; in TEST() 79 TfLiteTensor* tensor = interpreter->tensor(input_tensor_idx); in TEST() 85 status = interpreter->Invoke(); in TEST() 90 TfLiteTensor* tensor = interpreter->tensor(interpreter->outputs()[0]); in TEST() 94 tensor = interpreter->tensor(interpreter->outputs()[1]); in TEST() [all …]
|
/external/testng/src/main/java/org/testng/internal/ |
D | Bsh.java | 20 Interpreter interpreter = getInterpreter(); in includeMethodFromExpression() local 26 setContext(interpreter, tm.getMethod(), groups, tm); in includeMethodFromExpression() 27 Object evalResult = interpreter.eval(expression); in includeMethodFromExpression() 35 resetContext(interpreter); in includeMethodFromExpression() 50 …private void setContext(Interpreter interpreter, Method method, Map<String, String> groups, ITestN… in setContext() argument 52 interpreter.set("method", method); in setContext() 53 interpreter.set("groups", groups); in setContext() 54 interpreter.set("testngMethod", tm); in setContext() 61 private void resetContext(Interpreter interpreter) { in resetContext() argument 63 interpreter.unset("method"); in resetContext() [all …]
|
/external/libtextclassifier/utils/ |
D | tflite-model-executor.h | 69 tflite::Interpreter* interpreter) const { in SetInput() argument 70 input_data.copy_to(interpreter->typed_input_tensor<T>(input_index), in SetInput() 76 tflite::Interpreter* interpreter) const { in SetInput() argument 78 interpreter->typed_input_tensor<T>(input_index)); in SetInput() 83 tflite::Interpreter* interpreter) const { in SetInput() argument 85 interpreter->tensor(interpreter->inputs()[input_index]); in SetInput() 115 const tflite::Interpreter* interpreter) const { in OutputView() argument 117 interpreter->tensor(interpreter->outputs()[output_index]); in OutputView() 118 return TensorView<T>(interpreter->typed_output_tensor<T>(output_index), in OutputView() 126 const tflite::Interpreter* interpreter) const { in Output() argument [all …]
|
/external/tensorflow/tensorflow/lite/experimental/examples/unity/TensorFlowLitePlugin/Assets/TensorFlowLite/Examples/HelloTFLite/Scripts/ |
D | HelloTFLite.cs | 37 private Interpreter interpreter; field in HelloTFLite 47 interpreter = new Interpreter(model.bytes); in Start() 50 interpreter.GetInputTensorCount(), in Start() 51 interpreter.GetOutputTensorCount()); in Start() 60 interpreter.ResizeInputTensor(0, new int[]{inputs.Length}); in Update() 61 interpreter.AllocateTensors(); in Update() 66 interpreter.SetInputTensorData(0, inputs); in Update() 67 interpreter.Invoke(); in Update() 68 interpreter.GetOutputTensorData(0, outputs); in Update() 79 interpreter.Dispose(); in OnDestroy()
|
/external/libtextclassifier/annotator/ |
D | model-executor.cc | 25 const TensorView<float>& features, tflite::Interpreter* interpreter) const { in ComputeLogits() 26 if (!interpreter) { in ComputeLogits() 29 interpreter->ResizeInputTensor(kInputIndexFeatures, features.shape()); in ComputeLogits() 30 if (interpreter->AllocateTensors() != kTfLiteOk) { in ComputeLogits() 35 SetInput<float>(kInputIndexFeatures, features, interpreter); in ComputeLogits() 37 if (interpreter->Invoke() != kTfLiteOk) { in ComputeLogits() 42 return OutputView<float>(kOutputIndexLogits, interpreter); in ComputeLogits() 56 std::unique_ptr<tflite::Interpreter> interpreter = in FromBuffer() local 58 if (!interpreter) { in FromBuffer() 63 if (interpreter->tensors_size() != 2) { in FromBuffer() [all …]
|
/external/v8/src/interpreter/ |
D | setup-interpreter-internal.cc | 15 namespace interpreter { namespace 27 void SetupInterpreter::InstallBytecodeHandlers(Interpreter* interpreter) { in InstallBytecodeHandlers() argument 28 DCHECK(!interpreter->IsDispatchTableInitialized()); in InstallBytecodeHandlers() 29 HandleScope scope(interpreter->isolate_); in InstallBytecodeHandlers() 32 CanonicalHandleScope canonical(interpreter->isolate_); in InstallBytecodeHandlers() 33 Address* dispatch_table = interpreter->dispatch_table_; in InstallBytecodeHandlers() 44 InstallBytecodeHandler(interpreter->isolate_, dispatch_table, \ in InstallBytecodeHandlers() 60 Heap* heap = interpreter->isolate_->heap(); in InstallBytecodeHandlers() 63 interpreter->isolate_, OperandScale::kSingle)); in InstallBytecodeHandlers() 66 interpreter->isolate_, OperandScale::kDouble)); in InstallBytecodeHandlers() [all …]
|
/external/tensorflow/tensorflow/lite/tools/benchmark/ |
D | benchmark_tflite_model.cc | 43 void ProfilingListener::SetInterpreter(tflite::Interpreter* interpreter) { in SetInterpreter() argument 44 TFLITE_BENCHMARK_CHECK(interpreter); in SetInterpreter() 45 interpreter_ = interpreter; in SetInterpreter() 263 TFLITE_BENCHMARK_CHECK(interpreter); in ComputeInputBytes() 265 for (int input : interpreter->inputs()) { in ComputeInputBytes() 266 auto* t = interpreter->tensor(input); in ComputeInputBytes() 273 auto interpreter_inputs = interpreter->inputs(); in PrepareInputData() 279 TfLiteTensor* t = interpreter->tensor(i); in PrepareInputData() 324 auto interpreter_inputs = interpreter->inputs(); in ResetInputsAndOutputs() 328 TfLiteTensor* t = interpreter->tensor(i); in ResetInputsAndOutputs() [all …]
|