A otimização e conversão de modelos TensorFlow para OpenVINO é crucial para aproveitar ao máximo a aceleração de hardware oferecida pela Intel. Neste guia abrangente, vamos explorar passo a passo o processo de conversão, destacando diferentes métodos dependendo da versão do TensorFlow e do formato do modelo.
Conversão de Modelos TensorFlow 1.x
Formato Frozen Model
Para converter um modelo TensorFlow 1.x no formato Frozen Model, utilize o script mo da OpenVINO. Basta fornecer o caminho para o arquivo de modelo de entrada (.pb):
mo --input_model <INPUT_MODEL>.pb
Outros Formatos não Congelados
-
Checkpoint Format:
- Com arquivo de gráfico de inferência em formato .pb:
mo --input_model <INFERENCE_GRAPH>.pb --input_checkpoint <INPUT_CHECKPOINT>
- Com arquivo de gráfico de inferência em formato .pbtxt:
mo --input_model <INFERENCE_GRAPH>.pbtxt --input_checkpoint <INPUT_CHECKPOINT> --input_model_is_text
- Com arquivo de gráfico de inferência em formato .pb:
-
MetaGraph:
See AlsoO Guia Completo para Detecção de Objetos usando TensorFlowComo Treinar um Modelo de Detecção de Objetos com TensorFlow 2 Object Detection APITensorflow Object Detection API: Agora Com Suporte Oficial ao Tensorflow 2Instalação e Configuração Eficiente do TensorFlow 2.x para GPU no Windowsmo --input_meta_graph <INPUT_META_GRAPH>.meta
-
SavedModel Format:
mo --saved_model_dir <SAVED_MODEL_DIRECTORY>
Lembre-se de especificar nós de entrada usando a opção --input se necessário.
Conversão de Modelos TensorFlow 2
SavedModel Format
Certifique-se de ter o pacote openvino-dev[tensorflow2] instalado via pip. O processo de conversão para modelos TensorFlow 2.x SavedModel é simples:
mo --saved_model_dir <SAVED_MODEL_DIRECTORY>
Certifique-se de ter o TensorFlow 2.x instalado no ambiente de conversão.
Keras H5 Format
-
Carregue o modelo HDF5 usando o TensorFlow 2:
import tensorflow as tf model = tf.keras.models.load_model('model.h5')
-
Salve o modelo no formato SavedModel:
tf.saved_model.save(model, 'model')
Siga as instruções do formato SavedModel mencionadas anteriormente.
Pré-processamento e Poda Personalizada
Se o modelo contiver operações não suportadas pelo OpenVINO, é possível realizar a poda explicitamente especificando nós de entrada usando a opção --input ou --output.
Resumo
Neste guia, exploramos detalhadamente os métodos de conversão de modelos TensorFlow para OpenVINO, abrangendo diferentes formatos e versões. Certifique-se de seguir os passos específicos para otimizar seus modelos e tirar total proveito da aceleração de hardware proporcionada pela Intel.
Para mais informações e tutoriais específicos, consulte a . Conclua a conversão e melhore o desempenho de seus modelos TensorFlow na infraestrutura OpenVINO.