您现在的位置是:首页 >技术杂谈 >PyTorch 中 `torch.cuda.amp` 相关警告的解决方法网站首页技术杂谈
PyTorch 中 `torch.cuda.amp` 相关警告的解决方法
简介PyTorch 中 `torch.cuda.amp` 相关警告的解决方法
在最近的写代码过程中,遇到了两个与 PyTorch 的混合精度训练相关的警告信息。这里随手记录一下。
警告内容
警告 1: torch.cuda.amp.autocast
FutureWarning: `torch.cuda.amp.autocast(args...)`
is deprecated. Please use `torch.amp.autocast('cuda', args...)`
instead. with autocast():
警告 2: torch.cuda.amp.GradScaler
FutureWarning: `torch.cuda.amp.GradScaler(args...)`
is deprecated. Please use `torch.amp.GradScaler('cuda', args...)`
instead. scaler = GradScaler()
原因分析

根据 PyTorch 官方文档的更新说明,从 PyTorch 2.4 版本开始,torch.cuda.amp 模块中的部分 API 已被标记为弃用(deprecated)。为了统一 API 的设计风格,并支持更多的后端设备(如 CPU 和其他加速器)。
虽然目前这些警告并不会导致程序报错,但官方建议开发者尽快调整代码以适配最新版本的规范。
方法 1: 适配新 API
替换 autocast 和 GradScaler
from torch.cuda.amp import autocast
with autocast():
# Your code
from torch.cuda.amp import GradScaler
scaler = GradScaler()
改为:
from torch.amp import autocast
with autocast('cuda'):
# Your code
from torch.amp import GradScaler
scaler = GradScaler(device='cuda')
注意:如果需要支持多设备(如 CPU),可以将
'cuda'替换为'cpu'或其他目标设备。
方法 2: 降级 PyTorch 版本
如果你暂时不想修改代码,可以选择降级到 PyTorch 2.3 或更低版本。可以通过以下命令安装指定版本的 PyTorch:
pip install torch==2.3
不过,这种方法并不推荐,因为旧版本可能会缺少一些新功能或性能优化。
尽管这些警告不会立即导致程序运行失败,但为了确保代码的兼容性和未来的可维护性,建议按照官方文档的要求对代码进行调整。此外,定期关注 PyTorch 官方文档和技术博客,可以及时了解最新的 API 变更和最佳实践。
如果还有其他疑问,欢迎留言交流。 😊
风语者!平时喜欢研究各种技术,目前在从事后端开发工作,热爱生活、热爱工作。





U8W/U8W-Mini使用与常见问题解决
QT多线程的5种用法,通过使用线程解决UI主界面的耗时操作代码,防止界面卡死。...
stm32使用HAL库配置串口中断收发数据(保姆级教程)
分享几个国内免费的ChatGPT镜像网址(亲测有效)
Allegro16.6差分等长设置及走线总结