我可以在 colab 中清除 gpu vram

我正在尝试使用 aitextgen 在数据集上微调 774M gpt 2。不幸的是,无论我做什么,培训都失败了,因为只有 80 mb 的 vram 可用。如何在不重新启动运行时清除 vram 并防止 vram 被填满?

stack overflow Can i clear up gpu vram in colab
原文答案

答案:

作者头像

另一种解决方案是使用这些代码片段。

1.

!pip install numba
  1. 然后:

    
    from numba import cuda
    # all of your code and execution
    cuda.select_device(0)
    cuda.close()

您的问题在 Tensorflow 官方 github 中进行了讨论。  [https://github.com/tensorflow/tensorflow/issues/36465](https://github.com/tensorflow/tensorflow/issues/36465) 

**更新:** @alchemy 报告说这在开启时是不可恢复的。你可以试试下面的代码。

device = cuda.get_current_device()
device.reset()

作者头像
  1. 在笔记本块中运行命令 !nvidia-smi
  2. 查找 GPU 的进程 ID,您不需要删除以清理 vram。然后运行命令 !kill process_id

它应该可以帮助你。