ONNX-LRE
C++ API documentation
Loading...
Searching...
No Matches
OnnxLre::LatentRuntimeEngine Member List

This is the complete list of members for OnnxLre::LatentRuntimeEngine, including all inherited members.

allocateIO(bool onlyOutput)OnnxLre::LatentRuntimeEngineprivate
allocatorOnnxLre::LatentRuntimeEngineprivate
autoSelectExecutionProvider(ExecutionProvider currentProvider)OnnxLre::LatentRuntimeEngineprivate
comm_OnnxLre::LatentRuntimeEngineprivate
configOnnxLre::LatentRuntimeEngineprivate
configureCUDAProvider()OnnxLre::LatentRuntimeEngineprivate
configureTensorRTProvider()OnnxLre::LatentRuntimeEngineprivate
cpu_device_allocatorOnnxLre::LatentRuntimeEngineprivate
cpu_memory_infoOnnxLre::LatentRuntimeEngineprivate
cuda_device_allocatorOnnxLre::LatentRuntimeEngineprivate
cuda_memory_infoOnnxLre::LatentRuntimeEngineprivate
cuda_optionsOnnxLre::LatentRuntimeEngineprivate
dummy_tensorOnnxLre::LatentRuntimeEngineprivate
dynamicGraphOnnxLre::LatentRuntimeEngineprivate
dynamicInputsOnnxLre::LatentRuntimeEngineprivate
dynamicOutputsOnnxLre::LatentRuntimeEngineprivate
enableProfiling_OnnxLre::LatentRuntimeEngineprivate
end_timeOnnxLre::LatentRuntimeEngineprivate
envOnnxLre::LatentRuntimeEngineprivate
executionProviderOnnxLre::LatentRuntimeEngineprivate
fetchInputNodeInfo()OnnxLre::LatentRuntimeEngineprivate
fetchOutputNodeInfo()OnnxLre::LatentRuntimeEngineprivate
generateModelInferenceEvent()OnnxLre::LatentRuntimeEngineprivate
generateModelInit()OnnxLre::LatentRuntimeEngineprivate
getAverageInferenceTimeMs() constOnnxLre::LatentRuntimeEngineprivate
getExecutionProvider() constOnnxLre::LatentRuntimeEngine
getInputDTypes() constOnnxLre::LatentRuntimeEngine
getInputNames() constOnnxLre::LatentRuntimeEngine
getInputShapes() constOnnxLre::LatentRuntimeEngine
getMetaValue(std::string key)OnnxLre::LatentRuntimeEngine
getNumberOfInputs() constOnnxLre::LatentRuntimeEngine
getNumberOfOutputs() constOnnxLre::LatentRuntimeEngine
getOutput()OnnxLre::LatentRuntimeEngine
getOutputDTypes() constOnnxLre::LatentRuntimeEngine
getOutputNames() constOnnxLre::LatentRuntimeEngine
getOutputOrt()OnnxLre::LatentRuntimeEngine
getOutputShapes() constOnnxLre::LatentRuntimeEngine
getVersion()OnnxLre::LatentRuntimeEngine
gpuInputOnnxLre::LatentRuntimeEngineprivate
gpuOutputOnnxLre::LatentRuntimeEngineprivate
graphQuantizedOnnxLre::LatentRuntimeEngineprivate
hasDynamicInputsOutputs(Ort::Session &session)OnnxLre::LatentRuntimeEngineprivate
infer(const std::vector< DLManagedTensor * > &t_input_data_vec)OnnxLre::LatentRuntimeEngine
infer(const std::vector< Ort::Value > &t_input_data_vec)OnnxLre::LatentRuntimeEngine
infer(const std::vector< void * > &t_input_data_vec, const std::vector< int64_t * > shape, const std::string device)OnnxLre::LatentRuntimeEngine
infer_countOnnxLre::LatentRuntimeEngineprivate
infer_durationsOnnxLre::LatentRuntimeEngineprivate
INFER_HISTORY_SIZEOnnxLre::LatentRuntimeEngineprivatestatic
infer_indexOnnxLre::LatentRuntimeEngineprivate
initLRE(std::vector< unsigned char > model)OnnxLre::LatentRuntimeEngineprivate
input_dtypesOnnxLre::LatentRuntimeEngineprivate
input_namesOnnxLre::LatentRuntimeEngineprivate
input_shapesOnnxLre::LatentRuntimeEngineprivate
input_tensorsOnnxLre::LatentRuntimeEngineprivate
input_tensors_dtype_bytesOnnxLre::LatentRuntimeEngineprivate
io_bindingOnnxLre::LatentRuntimeEngineprivate
isCPUOutput()OnnxLre::LatentRuntimeEngine
isModelLoadedOnnxLre::LatentRuntimeEngineprivate
LatentRuntimeEngine(const std::string &modelPath, const Options &config=Options())OnnxLre::LatentRuntimeEngineexplicit
license_OnnxLre::LatentRuntimeEngineprivate
makeORTTensor(void *t_input_data_vec, const int64_t *shape, int input_index, const std::string &device)OnnxLre::LatentRuntimeEngine
metadataOnnxLre::LatentRuntimeEngineprivate
model_context_uuidOnnxLre::LatentRuntimeEngineprivate
model_pathOnnxLre::LatentRuntimeEngineprivate
number_inputsOnnxLre::LatentRuntimeEngineprivate
number_outputsOnnxLre::LatentRuntimeEngineprivate
output_dtypesOnnxLre::LatentRuntimeEngineprivate
output_namesOnnxLre::LatentRuntimeEngineprivate
output_shapesOnnxLre::LatentRuntimeEngineprivate
output_tensorsOnnxLre::LatentRuntimeEngineprivate
output_tensors_dtype_bytesOnnxLre::LatentRuntimeEngineprivate
precisionOnnxLre::LatentRuntimeEngineprivate
sessionOnnxLre::LatentRuntimeEngineprivate
sessionOptionsOnnxLre::LatentRuntimeEngineprivate
setCPUOutput(bool use_cpu)OnnxLre::LatentRuntimeEngine
start_timeOnnxLre::LatentRuntimeEngineprivate
sys_info_dumpOnnxLre::LatentRuntimeEngineprivate
tempDirectoryPathOnnxLre::LatentRuntimeEngineprivate
tensorrt_optionsOnnxLre::LatentRuntimeEngineprivate
total_infer_countOnnxLre::LatentRuntimeEngineprivate
~LatentRuntimeEngine()OnnxLre::LatentRuntimeEngine