Turinys:

Kaip paleisti AWS TensorFlow?
Kaip paleisti AWS TensorFlow?

Video: Kaip paleisti AWS TensorFlow?

Video: Kaip paleisti AWS TensorFlow?
Video: Getting Started with TeamViewer - Remote Control 2024, Gegužė
Anonim

Norėdami suaktyvinti „TensorFlow“, atidarykite „Amazon Elastic Compute Cloud“(„Amazon EC2“) DLAMI egzempliorių su „Conda“

  1. „TensorFlow“ir „Keras 2“sistemoje „Python 3“su CUDA 9.0 ir MKL-DNN paleiskite šią komandą: $ source activate tensorflow_p36.
  2. TensorFlow ir Keras 2 Python 2 su CUDA 9.0 ir MKL-DNN paleiskite šią komandą:

Atitinkamai, ar TensorFlow veikia AWS?

TensorFlow ™ leidžia kūrėjams greitai ir lengvai pradėti gilų mokymąsi debesyje. Tu gali pradėti AWS su visiškai valdoma TensorFlow patirtis su Amazon „SageMaker“, platforma, skirta kurti, mokyti ir diegti mašininio mokymosi modelius.

Taip pat žinote, kas yra AWS TensorFlow? Kategorija: Tensorflow įjungta AWS TensorFlow yra atvirojo kodo mašininio mokymosi (ML) biblioteka, plačiai naudojama kuriant sunkius giliuosius neuroninius tinklus (DNN), kuriems reikalingas paskirstytas mokymas naudojant kelis GPU keliuose pagrindiniuose kompiuteriuose.

Taip pat kyla klausimas, kaip paleisti AWS mašininį mokymąsi?

Pradėkite nuo gilaus mokymosi naudodami AWS Deep Learning AMI

  1. 1 veiksmas: atidarykite EC2 konsolę.
  2. 1b veiksmas: pasirinkite mygtuką Paleisti egzempliorių.
  3. 2a veiksmas: pasirinkite AWS Deep Learning AMI.
  4. 2b veiksmas: išsamios informacijos puslapyje pasirinkite Tęsti.
  5. 3a veiksmas: pasirinkite egzemplioriaus tipą.
  6. 3b veiksmas: paleiskite egzempliorių.
  7. 4 veiksmas: sukurkite naują privataus rakto failą.
  8. 5 veiksmas: spustelėkite Peržiūrėti egzempliorių, kad pamatytumėte egzemplioriaus būseną.

Kaip aptarnaujate TensorFlow modelį?

  1. Sukurkite savo modelį. Importuokite Fashion MNIST duomenų rinkinį. Išmokykite ir įvertinkite savo modelį.
  2. Išsaugokite savo modelį.
  3. Patikrinkite išsaugotą modelį.
  4. Patiekite savo modelį naudodami „TensorFlow Serving“. Pridėkite „TensorFlow Serving“platinimo URI kaip paketo šaltinį: Įdiekite „TensorFlow Serving“.
  5. Pateikite užklausą savo modeliui „TensorFlow Serving“. Pateikite REST užklausas.

Rekomenduojamas: