ONNX-LRE
C++ API documentation
OnnxLre::LatentRuntimeEngine Member List

This is the complete list of members for OnnxLre::LatentRuntimeEngine, including all inherited members.

allocatorOnnxLre::LatentRuntimeEngineprivate
calibration_file_pathOnnxLre::LatentRuntimeEngineprivate
configOnnxLre::LatentRuntimeEngineprivate
configureCUDAProvider()OnnxLre::LatentRuntimeEngineprivate
configureTensorRTProvider()OnnxLre::LatentRuntimeEngineprivate
cpu_memory_infoOnnxLre::LatentRuntimeEngineprivate
cuda_memory_infoOnnxLre::LatentRuntimeEngineprivate
cuda_optionsOnnxLre::LatentRuntimeEngineprivate
dummy_tensorOnnxLre::LatentRuntimeEngineprivate
envOnnxLre::LatentRuntimeEngineprivate
executionProviderOnnxLre::LatentRuntimeEngineprivate
fetchInputNodeInfo()OnnxLre::LatentRuntimeEngineprivate
fetchOutputNodeInfo()OnnxLre::LatentRuntimeEngineprivate
getInputDTypes() constOnnxLre::LatentRuntimeEngine
getInputNames() constOnnxLre::LatentRuntimeEngine
getInputShapes() constOnnxLre::LatentRuntimeEngine
getMetaValue(std::string key)OnnxLre::LatentRuntimeEngine
getNumberOfInputs() constOnnxLre::LatentRuntimeEngine
getNumberOfOutputs() constOnnxLre::LatentRuntimeEngine
getOutput()OnnxLre::LatentRuntimeEngine
getOutputDTypes() constOnnxLre::LatentRuntimeEngine
getOutputNames() constOnnxLre::LatentRuntimeEngine
getOutputOrt()OnnxLre::LatentRuntimeEngine
getOutputShapes() constOnnxLre::LatentRuntimeEngine
gpuOutputOnnxLre::LatentRuntimeEngineprivate
graphQuantizedOnnxLre::LatentRuntimeEngineprivate
infer(const std::vector< DLManagedTensor * > &t_input_data_vec)OnnxLre::LatentRuntimeEngine
infer(const std::vector< Ort::Value > &t_input_data_vec)OnnxLre::LatentRuntimeEngine
infer(const std::vector< void * > &t_input_data_vec, const std::vector< int64_t * > shape, const std::string device)OnnxLre::LatentRuntimeEngine
initLRE(std::vector< unsigned char > model)OnnxLre::LatentRuntimeEngineprivate
input_dtypesOnnxLre::LatentRuntimeEngineprivate
input_namesOnnxLre::LatentRuntimeEngineprivate
input_shapesOnnxLre::LatentRuntimeEngineprivate
input_tensorsOnnxLre::LatentRuntimeEngineprivate
input_tensors_dtype_bytesOnnxLre::LatentRuntimeEngineprivate
io_bindingOnnxLre::LatentRuntimeEngineprivate
isCPUOutput()OnnxLre::LatentRuntimeEngine
isModelLoadedOnnxLre::LatentRuntimeEngineprivate
LatentRuntimeEngine(const std::string &modelPath, const Options &config=Options())OnnxLre::LatentRuntimeEngineexplicit
makeORTTensor(void *t_input_data_vec, const int64_t *shape, int input_index, const std::string &device)OnnxLre::LatentRuntimeEngine
metadataOnnxLre::LatentRuntimeEngineprivate
model_pathOnnxLre::LatentRuntimeEngineprivate
number_inputsOnnxLre::LatentRuntimeEngineprivate
number_outputsOnnxLre::LatentRuntimeEngineprivate
output_dtypesOnnxLre::LatentRuntimeEngineprivate
output_namesOnnxLre::LatentRuntimeEngineprivate
output_shapesOnnxLre::LatentRuntimeEngineprivate
output_tensorsOnnxLre::LatentRuntimeEngineprivate
output_tensors_dtype_bytesOnnxLre::LatentRuntimeEngineprivate
sessionOnnxLre::LatentRuntimeEngineprivate
sessionOptionsOnnxLre::LatentRuntimeEngineprivate
setCPUOutput(bool use_cpu)OnnxLre::LatentRuntimeEngine
tempDirectoryPathOnnxLre::LatentRuntimeEngineprivate
tensorrt_optionsOnnxLre::LatentRuntimeEngineprivate
trt_calibOnnxLre::LatentRuntimeEngineprivate
~LatentRuntimeEngine()OnnxLre::LatentRuntimeEngine