概述 测试,先拿到两个容器。 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 [root@53d7b09e-f8ca-45a7-98a3-b10ac0040351 ~]# ibv_devices device node GUID ------ ---------------- mlx5_6 0000000000000000 mlx5_8 0000000000000000 mlx5_11 0000000000000000 mlx5_13 0000000000000000 mlx5_1 506b4b0300081c5b mlx5_15 0000000000000000 mlx5_3 0000000000000000 mlx5_17 0000000000000000 mlx5_5 0000000000000000 mlx5_7 0000000000000000 mlx5_10 0000000000000000 mlx5_9 0000000000000000 mlx5_12 0000000000000000 mlx5_0 506b4b0300081c5a
概述 TensorFlow Serving is a flexible, high-performance serving system for machine learning models, designed for production environments. 在 Tensorflow 给的官方例子中 Use TensorFlow Serving with Kubernetes,是将模型拷贝到镜像里的,这里是会有点不太灵活,因为更新模
概述 本文主要讲解一下 Tensorflow 编译 GPU 的流程。 编译Tensorflow 要注意一切编译的前提条件,要编译的 tensorflow 的版本。 gcc版本 bazel版本 openjd
概述 官方文档「又长又臭」,我只是想在 Kubernetes 集群里,运行一个能跑在 GPU 显卡的程序而已,文档太多,看的眼花缭乱,本文就讲一个简单的例子。 Example 例子来源于 github
概述 Tensorflow 跟 CUDA 关系密切,以至于初用者会经常遇到 CUDA 的问题,另外就是利用 Kubernetes 来进行 Tensorflow 的计算,还需要与 nvidia-docker,而 CUDA 版本近年来升级比以
概述 在测试 vGPU 的功能的时候,给容器分配了半张 GPU 卡,然后想用 Tensorflow Benchmark 测试一下,却发现半张 V100 32GB 显存从一开始就被占满了,但是 vGPU 只给 16 GB,这样发现 Tensorflow 无法